Red de conocimiento informático - Computadora portátil - ¿El lado oscuro de la inteligencia artificial con el que tendremos que vivir en 2018?

¿El lado oscuro de la inteligencia artificial con el que tendremos que vivir en 2018?

Marcamos el comienzo de otro Año Nuevo en medio de todos los me gusta elegantes en nuestras fotos de 18 años.

Se supone que el Año Nuevo es una época feliz, pero acabamos de celebrar el Año Nuevo y cuando miramos hacia arriba, ¡tenemos que ir a trabajar! No puedo evitar sentir muchas emociones... Así que hoy hablaremos de algo no tan feliz.

En los últimos días han ido surgiendo una tras otra diversas predicciones tecnológicas sobre 2018, entre ellas, maravillosas visiones sobre la inteligencia artificial ocupan la mayor parte del contenido, y casi todas son festivas y pacíficas.

Pero todo tiene dos caras. A medida que comenzamos a aprovechar el valor de la inteligencia artificial, los riesgos potenciales que conllevan las actualizaciones tecnológicas también están aumentando. Esto es como si los autos fueran definitivamente mejores que los carros de bueyes, pero también causarán varios accidentes de tráfico. Por supuesto que no podemos prohibir la circulación de coches, pero tampoco podemos hacer la vista gorda ante los problemas de tráfico.

Hoy predeciremos varios "eventos negativos de la inteligencia artificial" que pueden llamar nuestra atención en 2018.

Después de todo, estar preparado es el requisito previo para resolver problemas.

1. Las cuestiones éticas de la inteligencia artificial comienzan a surgir caso por caso

En enero de 2017, en la conferencia Beneficial Al celebrada en Asilomar, California, participaron cerca de mil personas del campo de la inteligencia artificial. Los expertos en inteligencia artificial firmaron conjuntamente los famosos "23 Principios de Inteligencia Artificial de Asilomar".

Posteriormente, comenzaron a aparecer en el ojo público diversos debates y conferencias sobre la ética de la inteligencia artificial, así como asociaciones y organizaciones tecnológicas relacionadas.

El contenido principal de los "23 Principios" es pedir que la inteligencia artificial no dañe los intereses humanos y la seguridad debe ser controlable por los humanos. Al mismo tiempo, los humanos deben tratar de respetar la seguridad. de inteligencia artificial y robots.

Esto suena bastante a ciencia ficción, pero a medida que varias industrias comienzan a implementar inteligencia artificial, especialmente cuando comienzan a utilizarla para la toma de decisiones automatizada, las cuestiones éticas y morales de la inteligencia artificial realmente pueden surgir.

Por ejemplo, cuando un coche autónomo esté a punto de provocar un accidente, ¿priorizará la protección de los transeúntes o pasajeros? Si un sistema de diagnóstico de IA recomienda la eutanasia, ¿cuenta como asesinato? ¿Pueden los sistemas de inteligencia artificial romper las reglas y hacer lo suyo para evitar causar más daño?

La más famosa debería ser la crítica de Google a un estudio realizado por un equipo de la Universidad Jiao Tong de Shanghai el año pasado sobre la “identificación criminal mediante la observación de rostros”. Esto ha provocado muchos debates en los medios sobre el valor de la inteligencia artificial.

A medida que diversos escenarios industriales comiencen a utilizar tecnología de inteligencia artificial, es probable que las consiguientes cuestiones de límites, responsabilidades y derechos, opciones éticas y otras cuestiones causen conflictos que no ocurrirán en el laboratorio.

La humanidad nunca ha discutido realmente estos temas. Si la inteligencia artificial llega a buen puerto lo suficientemente rápido en 2018, es posible que se avecine el comienzo de cuestiones éticas.

Dos: Discriminación algorítmica difícil de eliminar

Recordemos que en 2016 Microsoft lanzó un robot de chat Tay, pero como los usuarios le enseñaron una gran cantidad de insultos raciales y malas palabras, Fue desconectado temporalmente en un día. Esto plantea un tema muy controvertido: el aprendizaje automático absorberá el conocimiento y la información humanos para moldearse a sí mismo, entonces, ¿qué pasa si la información que absorbe contiene muchas cosas "menos puras"?

En 2017, el problema de la discriminación algorítmica no se ha resuelto, pero han surgido una variedad de nuevos problemas. Por ejemplo, Google Brain pondrá muchas etiquetas en imágenes femeninas sobre la familia y la vulnerabilidad, lo que obviamente viola el espíritu del feminismo, e identificar a los negros como gorilas ha despertado la atención sobre el tema de la discriminación racial en la inteligencia artificial.

Para los consumidores comunes, la llamada discriminación algorítmica es más probable que se sienta en dos lugares: recomendaciones de contenido y recomendaciones de comercio electrónico.

Por ejemplo, lo que los consumidores acaban de ver sobre quitarse la ropa y las empresas de comercio electrónico que recomiendan pastillas para bajar de peso puede recordarles que el algoritmo está discriminando su propia grasa, por ejemplo, cuando abren un software como este; Como Toutiao En este momento, es posible que todos hayan tenido esta situación: accidentalmente hicieron clic en un contenido curioso o pseudopornográfico recomendado y de repente se volvió refrescante.

Bueno, hay una gran cantidad de contenido similar, y el contenido de interés y el contenido profesional que originalmente querías ver desaparecieron instantáneamente. Incluso si no me importa si te gusta o no, la plataforma te lo recomendará. Esto se debe a la forma en que el algoritmo te categoriza.

Esta sensación de discriminación es bastante grave, como si hubiera una persona detrás de ti sonriendo en secreto: "Admítelo, eres tan vulgar..."

La raíz de este tipo de problema radica en la tecnología de aprendizaje automático. Las recomendaciones personalizadas hoy deben basarse en dos fundamentos lógicos: el pasado como futuro y el grupo como individuo. El algoritmo absorberá la experiencia pasada y le dará algo específico, pero es probable que la experiencia absorbida por la máquina contenga información discriminatoria.

A medida que los sistemas de recomendación personalizados se utilizan cada vez en más escenarios de aplicación, puede resultarnos difícil erradicar la discriminación algorítmica en el corto plazo.

3. La contradicción entre datos privados y aprendizaje automático se ha vuelto cada vez más prominente.

La inteligencia artificial y la privacidad personal nunca han parecido enemigos naturales.

Porque para que la tecnología de inteligencia artificial proporcione servicios personalizados y totalmente coherentes con los hábitos personales, debe aprender y comprender a los propios usuarios. Y esto implica conocer los datos privados del usuario.

Pero debido a la privacidad y la desconfianza en la seguridad de la red, la mayoría de los usuarios obviamente no están dispuestos a revelar sus datos a las máquinas.

Esto crea una paradoja del "huevo y la gallina".

Durante los últimos dos años, el uso de inteligencia artificial para leer los datos personales de los usuarios ha sido suprimido e ignorado. Anteriormente, grandes empresas como Apple y Google habían lanzado productos que permitían a la inteligencia artificial leer a los usuarios, pero fueron rápidamente bloqueados por las críticas del público. Aun así, la cámara doméstica con IA lanzada por Google el año pasado ha sido criticada.

En la segunda mitad de 2017, asistimos a una tormentosa batalla por la hegemonía en los chips de inteligencia artificial. Sin embargo, el hardware equipado con chips de IA debe estar enfocado y tener tareas que completar. Por lo tanto, permitir que el hardware comprenda a los usuarios y permitir que el sistema proporcione servicios a miles de personas basándose en los datos del usuario inevitablemente volverá a la visión del público.

De hecho, a juzgar por la tendencia general, entregar datos personales a las máquinas parece ser el destino inevitable de los seres humanos. Ya sea en atención médica, servicios financieros o seguridad social, las máquinas son ciertamente más confiables que los humanos. Lo que pasa es que las molestias y los riesgos de seguridad que se experimentan son enormes.

En 2018, ya sean teléfonos móviles, altavoces, dispositivos portátiles o VR, tras habilitar funciones de aprendizaje automático, parece que se han visto inmersos en la línea roja de la privacidad de los datos.

Cómo abordar esta contradicción también es todo un dolor de cabeza.

4. Cada vez es más difícil distinguir entre lo verdadero y lo falso.

Desde el punto de vista actual, obviamente todavía es demasiado pronto para esperar que la inteligencia artificial pueda hablar y comprender palabras. como los humanos. Pero dejar que la inteligencia artificial haga falsificaciones ya no parece ser un gran problema.

Discutimos anteriormente la posibilidad de cambiar de cara en videos y transmisiones en vivo. De hecho, desde la perspectiva del progreso tecnológico general, la tecnología de simulación y reemplazo basada en GAN generalmente ha madurado. Ya sea que se trate de simular archivos de audio o video de reemplazo, la inteligencia artificial ha podido manejarlo con facilidad.

Pero esto ciertamente no es algo bueno. Cuando se lanzó el famoso software Face2Face, los usuarios extranjeros exclamaron: "¿Qué pasa si reemplazan a la persona con la que estoy chateando por video?"

A medida que los marcos de desarrollo y los recursos de datos se vuelven cada vez más abundantes, y los algoritmos se vuelven cada vez más Más sofisticado y poderoso hoy, tal vez podamos decir con certeza: en 2018, la creación de videos y audios con inteligencia artificial será más fluida.

Esta es una exploración de la tecnología futura por parte de la inteligencia artificial, pero es probable. para llevar a las redes sociales y. La agitación de la comunicación en línea: cuando los videos que vemos pueden ser completamente falsos, ¿qué más puede creer el mundo?

Cuando lo falso se convierte en real, lo real también es falso. ¿Solo podemos esperar que el sistema de inteligencia artificial que resista el fraude de inteligencia artificial también pueda aparecer lo antes posible?

5. En 2017, Google TensorFlow expuso una vulnerabilidad en el marco. Aunque fue descubierta por sombreros blancos y no causó peligro, aún así causó. Hemos hecho sonar la alarma: la inteligencia artificial no es segura.

Hasta ahora, hemos visto múltiples posibilidades. para que los piratas informáticos se combinen con la tecnología de inteligencia artificial: el uso de inteligencia artificial para falsificar información de documentos para llevar a cabo ataques y fraudes utilizando la tecnología de inteligencia artificial mejora la eficiencia de los ataques de piratería utilizando sistemas de inteligencia artificial para llevar a cabo ataques dirigidos; Inteligencia artificial y sistemas IoT, es probable que los futuros ataques de IoT incorporen elementos de inteligencia artificial.

La madurez de la tecnología ha permitido a los ciberpiratas encontrar más objetivos, más herramientas y más trucos. Aunque la inteligencia artificial también nos proporciona. una variedad de métodos para proteger la seguridad de Internet.

Pero en cualquier caso, la inteligencia artificial sin duda aporta más posibilidades a los hackers.

El mundo de la seguridad de redes en 2017 no es todo viento en popa, con varios virus y piratas informáticos arrasando. A medida que nos adentramos en 2018, es posible que veamos combates aún más intensos en este campo de batalla.

Conclusión

Como cualquier tipo de innovación tecnológica, si bien la inteligencia artificial aporta valor, también conlleva peligros. Con sus características de reconocimiento y capacidades de aprendizaje, es probable que el impacto negativo de la inteligencia artificial sea mayor que en el pasado.

Pero en cualquier caso, así es como la tecnología avanza paso a paso. Una mejor vista siempre conlleva un camino más difícil. Reconocer los riesgos y explorar soluciones puede ser la forma en que los humanos se vuelvan más adaptables a la inteligencia artificial.