Olvídese de los robots asesinos: los peligros reales de la IA en 2019

Coches autónomos involucrados en accidentes, redes sociales en las que se difunden noticias falsas, gigantes tecnológicos que apoyan proyectos militares… Los escándalos relacionados con la inteligencia artificial del año pasado muestran los riesgos de su mal uso. Ahora hay que pensar cómo evitarlos.


Mz Tech

Antes estaba de moda preocuparse por la posibilidad de que las máquinas superinteligentes se apoderaran del mundo (ver “La IA supone un mayor riesgo para la existencia que el cambio climático”). Pero el año pasado se demostró que la inteligencia artificial (IA) podría causar todo tipo de daños mucho antes de que eso suceda.

Los últimos métodos de inteligencia artificial destacan en tareas de percepción como la clasificación de imágenes y la transcripción del habla, pero la exageración y el entusiasmo por estas habilidades han disfrazado lo lejos que estamos realmente de construir máquinas igual de inteligentes que nosotros  (ver El hallazgo de hace 30 años en el que se basa toda la inteligencia artificial actual). Seis polémicas de 2018 sobresalen como advertencia de que incluso los algoritmos más inteligentes de IA pueden actuar mal, o que usarlos de manera imprudente podría tener graves consecuencias.

1. Coches autónomos que tienen accidentes

Después de un accidente mortal en marzo que involucró a uno de los coches autónomos de Uber (ver El accidente mortal del Uber autónomo podría no perjudicar al sector), los investigadores descubrieron que la tecnología de la compañía había fallado catastróficamente, hasta el punto que podría haberse evitado fácilmente.

Los fabricantes de coches como Ford y General Motors, los recién llegados como Uber y una gran cantidad de start-ups se apresuran a comercializar una tecnología que, a pesar de su inmadurez, ya ha recibido miles de millones de dólares en inversiones. Waymo, una filial de Alphabet, ha hecho el mayor progreso; puso en marcha el primer servicio de taxi totalmente autónomo en Arizona (EE.UU.) el año pasado. Pero incluso la tecnología de Waymo es limitada, y los coches autónomos no pueden conducir por cualquier parte en todas las condiciones.

¿A qué se debe prestar atención en 2019?

Hasta ahora, los reguladores de EE. UU. y otros lugares han tenido una postura de no intervención por temor a reprimir la innovación. La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE. UU. incluso ha señalado que las reglas de seguridad vigentes podrían ser menos rígidas. Pero los peatones y los conductores no han firmado ser conejillos de indias. Otro accidente grave en 2019 podría cambiar la opinión de los reguladores.

2. Bots que manipulan políticamente

En marzo se conoció que Cambridge Analytica, una consultoría política, había explotado las prácticas de intercambio de datos de Facebook para influir en las elecciones presidenciales de 2016 en Estados Unidos. El alboroto resultante mostró cómo los algoritmos que deciden qué noticias e información aparecerán en las redes sociales se pueden utilizar para amplificar la información falsa, para socavar un debate saludable y aislar a los ciudadanos con diferentes puntos de vista.

Durante una audiencia en el Congreso de EE.UU., el CEO de Facebook, Mark Zuckerberg, aseguró que la propia IA podría ser entrenada para detectar y bloquear contenido malicioso, aunque aún está lejos de poder entender el significado del texto, las imágenes o el vídeo.

¿A qué se debe prestar atención en 2019?

El compromiso de Zuckerberg se pondrá a prueba en las elecciones de los dos países más grandes de África: Sudáfrica y Nigeria. El período previo a las elecciones de Estados Unidos en 2020 también ha comenzado, será largo, y podría dar lugar a nuevos tipos de tecnologías de la desinformación mediante la IA, incluidos los chatbots maliciosos.

3. Algoritmos para el mal

El año pasado, surgió un movimiento de paz para la IA cuando los empleados de Google se enteraron de que su empleador estaba suministrando tecnología a la Fuerza Aérea de EE. UU. para clasificar las imágenes de drones. Los trabajadores temían que esto pudiera ser un paso decisivo hacia el suministro de tecnología para automatizar los ataques de drones letales. Como respuesta a eso, la compañía abandonó el Proyecto Maven, que era como se llamaba, y creó un código ético para el uso de la IA(ver Los siete principios de Google para evitar críticas a sus proyectos militares).

Los expertos y los pesos pesados ​​del sector han respaldado una campaña para prohibir el uso de armas autónomas. Sin embargo, el uso militar de la IA está aumentando, y otras compañías, como Microsoft y Amazon, no han mostrado reservas en cuanto a ayudarles.

¿A qué se debe prestar atención en 2019?

Aunque el gasto del Pentágono en proyectos de inteligencia artificial estáaumentando, los activistas esperan que surja un tratado que prohíba las armas autónomas  tras una serie de reuniones de la ONU programadas para este año.

4. Un cara a cara con la vigilancia

La capacidad sobrehumana de la IA para identificar rostros ha llevado a los países a implementar tecnologías de vigilancia a un ritmo extraordinario. El reconocimiento facial también nos permite desbloquear el teléfono y etiquetar las fotos automáticamente en las redes sociales.

Grupos defensores de las libertades civiles advierten sobre un futuro distópico (ver Cómo regular el reconocimiento facial para evitar el Gran Hermano). La tecnología es una forma efectiva de invadir la privacidad de las personas, y los sesgos en el entrenamiento de los datos automatizan la discriminación.

En muchos paísesespecialmente en China, el reconocimiento facial se está utilizando ampliamente para la vigilancia policial gubernamental (ver La tecnologobernanza china: ¿quién necesita democracia si tiene datos?) . Por su parte, Amazon está vendiendo esta tecnología a las agencias de inmigración y a los órganos policiales de EE.UU.

¿A qué se debe prestar atención en 2019?

El reconocimiento facial se extenderá a los vehículos y las cámaras web, y se utilizará para rastrear las emociones igual que la identidad. También podremos ver alguna regulación preliminar sobre esto en 2019.

5. Todo falso

Una proliferación de vídeos “deepfake del año pasado demostró lo fácil que resulta hacer clips falsos mediante IA. Esto se refiere a pornografía falsa de celebridades, muchos mashups de películas raras y, probablemente, a las campañas de desprestigio político.

Las redes generativas antagónicas (GAN), que enfrentan a dos redes neuronales, pueden idear imágenes y videos extraordinariamente realistas pero completamente inventados. Nvidia mostró recientemente cómo las GAN son capaces de generar caras fotorrealistas de cualquier raza, género y edad.

¿A qué se debe prestar atención en 2019?

Como los vídeos “deepfake” van mejorando, este año probablemente comenzarán a engañar a la gente. DARPA probará nuevos métodos para detectarlos (La IA es la única opción contra las noticias falsas que ella misma crea). Pero como esto también depende de la inteligencia artificial, será un juego del gato y el ratón.

6. Discriminación algorítmica

El sesgo fue descubierto en numerosas herramientas comerciales del año pasado. Los algoritmos de visión entrenados con conjuntos de datos no equilibrados no reconocieron a las mujeres o a las personas de color; se comprobó que la contratación por programas alimentados con datos históricos mantenía la discriminación que ya existe.

En relación con la cuestión del sesgo, y más difícil de solucionar, está la falta de diversidad en todo el campo de la IA. Las mujeres ocupan, como máximo, el 30% de los empleos  del sector y menos del 25% de los puestos docentes en las mejores universidades. Hay comparativamente pocos investigadores negros y latinos también.

¿A qué se debe prestar atención en 2019?

Veremos métodos para detectar y mitigar los sesgos y algoritmos que podrían producir resultados imparciales a partir de datos sesgados. La Conferencia Internacional sobre Aprendizaje Automático, la más importante en el campo de la IA, se llevará a cabo en Etiopía en 2020 porque los científicos africanos que investigan los problemas de sesgo podrían tener problemas para obtener visados para viajar a otras zonas. Otros eventos también podrían trasladarse de lugar.

MIT