El problema que nadie vio venir de la inteligencia artificial

Cualquier conductor que vea una señal de pare a la que una persona divertida ha puesto una calcomania que dice «odio» sabe que todavía es una señal de paro y debe detenerse. Por otro lado, un automóvil autónomo no podrá reconocerlo más del 60% del tiempo y pasará.
Los sistemas de visión artificial confunden una tortuga de juguete con un rifle y los negros con gorilas. Estos dispositivos han sido entrenados para ver patrones y solo necesitan cambios sutiles de simetría para interrumpirlos, como lo demuestra el estudio de señales de tráfico publicado por expertos de varias universidades de los Estados Unidos.
Las personas también han evolucionado durante miles de años para ver patrones. «Estamos hechos para identificar rostros y los vemos en las nubes, en los puntos en la pared, lo hacemos continuamente», explica José Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En contraste, la experiencia de vida de un algoritmo de visión se limita a bases de datos con miles de imágenes que se han entrenado una y otra vez. «Los algoritmos han sido diseñados para resolver problemas muy específicos, pero no para entender lo que está sucediendo en su entorno, solo ven señales y siempre aplican la misma solución. Las máquinas son totalmente autistas y darles la comprensión de su entorno es muy complicado». dice Molina.
Estas fallas están cambiando las vidas de las personas. El sistema de inteligencia artificial de Compas utilizado por los jueces en los EE. UU. Como asesor es parcial y tiende a desalentar a los negros más a menudo que a los blancos. El algoritmo analiza 173 variables, ninguna de ellas es raza, y da una probabilidad de reincidencia de 0 a 10. «La causa de estos problemas es que las bases de datos con las que trabajan estos algoritmos son de la policía y en ellas hay importantes sesgos racistas. «, explica Ramón López de Mántaras, experto en inteligencia artificial del CSIC. Un estudio publicado este año sostiene que el sistema tiene una tasa de error comparable a la de personas sin conocimiento legal. El problema no es tanto la máquina, sino el riesgo que el juez le delega.
En un nivel mucho menos serio, la aparente estupidez artificial acecha a cualquiera que use Internet con anuncios ubicuos de cosas que ya compraron o que no les interesan. Una vez más, la falla no es la máquina, sino la falta de contexto. «Si buscamos un producto en Internet, esa información es pública y se registra, pero cuando lo compramos, la transacción es privada, el algoritmo no sabe que lo compró, tiene que enseñarlo. No es un error. , te sigue mostrando lo que crees que te interesa y seguirás haciéndolo hasta que pases el momento de olvidar «, explica Molina.
En este caso, las bases de datos somos nosotros. Los asistentes de conversación doméstica y los sistemas de análisis de cookies de Internet se capacitan y aprenden con nuestro uso de la red. A veces «el algoritmo detecta un patrón que no existe y comienza a comportarse de una manera específica, por ejemplo, mostrando un anuncio en el que hacemos clic por error una o dos veces», explica Carlos Castillo, experto en inteligencia artificial en la Universidad Pomprau de Fabra. Barcelona. «Estos errores son como las supersticiones que adquieren las máquinas. Tenemos que entender que los sistemas informáticos pueden estar equivocados, lo importante es saber por qué y cómo corregirlo. En Europa ha entrado en vigor una regulación en este aspecto que nos permite ver Qué perfiles automáticos se han creado de nosotros, cambiarlos, eliminarlos y saber qué información se comparte sobre nosotros, aunque pocas personas se molestarán en hacerlo «, explica.
A menudo, las compañías que poseen los algoritmos no permiten que se conozcan los detalles de su operación. Esto es lo que sucede con el algoritmo de recomendación de videos de YouTube, explica el médico en inteligencia artificial Guillaume Chaslot, quien trabajó en Google (propietario de YouTube) entre 2010 y 2013. El canal de videos en línea «gana un centavo de euro por cada hora», dice. «Cada día, en todo el mundo, ves alrededor de 1.000 millones de horas, con las que ganas mucho dinero. El algoritmo que recomienda otros videos después de una reproducción tiene como objetivo principal maximizar el tiempo de permanencia. Lo que sucede es que el algoritmo termina Recomendar videos sobre teorías de conspiración, discursos de odio, racistas o sexistas, porque son los que tienen una permanencia más prolongada. En dos o tres clics, puedes terminar viendo uno de estos videos, pero todo depende de cada usuario. «El algoritmo es tan complejo que no puede rastrear cada una de las decisiones individuales que tomó para recomendar un contenido. Por supuesto, todo esto es un accidente no previsto por los programadores», explica.
A menudo, las compañías que poseen los algoritmos no permiten que se conozcan los detalles de su operación.
«Desde 2017, hemos estado introduciendo formas de mejorar el acceso a la información en España, incluyendo un estante de noticias de último minuto en la página de inicio de YouTube y el mejor estante de noticias en el motor de búsqueda que ofrece contenido de fuentes de noticias verificadas después de un evento importante», explica Katherine. Vargas, portavoz de Google. «También hemos anunciado más de media docena de nuevas características en el último año y una inversión global de 25 millones de dólares para los editores de noticias que producen videos en línea para crear una mejor experiencia de noticias», agrega.
Chaslot cree que «el sistema de búsqueda ha mejorado mucho, pero no tanto la recomendación». El ingeniero ha creado un sistema de inteligencias artificiales que miran continuamente a YouTube y siguen las recomendaciones, para que los videos más sugeridos puedan consultarse todos los días, entre los cuales hay muchos contenidos dudosos. Chaslot es un asesor del Centro de Tecnología Humana, formado por un grupo de ingenieros y ejecutivos de la industria de la tecnología que intentan denunciar los efectos negativos de la tecnología y revertirlos. «En este momento estamos viviendo las consecuencias de tener grandes compañías que controlan las plataformas de inteligencia artificial más grandes y casi no hay inversión de los gobiernos y la sociedad civil para promover usos más positivos», advierte.
A la amplificación de los contenidos radicales en las redes sociales, existe una tendencia a sobreestimar las capacidades de las máquinas. «Imaginamos que hay un pequeño cerebro humano dentro de la computadora, pero no, solo es programación y matemáticas», explica Meredith Broussard, ex programadora, profesora de periodismo en la Universidad de Nueva York y autora del libro Artificial Unintelligence. «Un sistema de visión artificial ve una imagen, coloca una cuadrícula de píxeles en ella y busca patrones entre los puntos. Si ves arcos y óvalos, dirás que es una cara, incluso si en realidad estás mirando un nabo. Por eso es importante enseñar a las personas cómo desarrollar programas de aprendizaje por computadora. Al principio, suena como magia, pero solo está escribiendo códigos. Una vez que lo ven se sienten engañados «, dice.
Broussard habla de «la creencia generalizada entre la mayoría de los programadores de que las soluciones tecnológicas son siempre mejores que las humanas». «Los pioneros en este campo dijeron que el mundo de la alta tecnología sería glorioso y libre. Nos demoramos demasiado en cuestionarlos. Incluso ahora es difícil para muchos aceptar que lo que imaginaron hace 20 años sobre cómo sería la tecnología era un engaño «, señala.
El objetivo de los programadores era crear algoritmos capaces de negociar con humanos y para esto los entrenaron para dividir tres tipos de objetos: sombreros, pelotas, libros. El objetivo principal era llegar a negociaciones exitosas para que los robots comenzaran a usar repeticiones de palabras sin tener en cuenta su coherencia. Llegaron a acuerdos válidos de acuerdo con los parámetros establecidos por los programadores, pero la conversación fue incomprensible para los humanos, como reveló Wired. «Fue un simple error de programación. Ninguna máquina tiene intenciones o jamás las tendrá. Pueden aprender a jugar Go y derrotar a un campeón, pero no saben que están jugando. Si ponemos esa misma máquina para distinguir las fotos de Los perros y gatos se olvidan de todo lo anterior. Solo pueden hacer una cosa a la vez «, dice Mántaras. «Es cierto que hace años nadie podía predecir que la inteligencia artificial estaba tan de moda y tanto hablar de los problemas que podrían surgir, pero hace 42 años que [el informático del MIT] Joseph Weizenbaum escribió que nunca debemos permitir que las computadoras tomen decisiones importantes porque nunca tendrán cualidades humanas como la compasión y la sabiduría. «