En su libro AI Snake Oil, dos investigadores de Princeton señalan a los culpables del ciclo de exageración sobre la IA y abogan por una comprensión más crítica y holística de la inteligencia artificial.
Arvind Narayanan, profesor de informática de la Universidad de Princeton, es conocido sobre todo por denunciar el hype que rodea a la inteligencia artificial en su libro, AI Snake Oil (Aceite de serpiente de IA) escrito con el doctorando Sayash Kapoor. Los dos autores acaban de publicar un libro basado en su popular boletín sobre los defectos de la IA.
Pero no hay que confundirse: no están en contra del uso de nuevas tecnologías. “Es fácil malinterpretar nuestro mensaje como si dijéramos que toda la IA es perjudicial o dudosa”, alerta Narayanan. En una conversación con WIRED, aclara que su reproche no se dirige al software en sí, sino a los culpables que siguen difundiendo afirmaciones engañosas sobre la inteligencia artificial.
En AI Snake Oil los culpables de perpetuar el actual ciclo de exageración se dividen en tres grupos principales: las empresas que venden IA, los investigadores que estudian la IA y los periodistas que cubren la IA.
Los difusores del bombo publicitario
Las empresas que prometen predecir el futuro mediante algoritmos se posicionan como las potencialmente más fraudulentas: “Cuando se despliegan sistemas de IA predictiva, las primeras personas a las que perjudican suelen ser las minorías y quienes ya viven en la pobreza”, escriben Narayanan y Kapoor en el libro. Por ejemplo, un algoritmo usado anteriormente en los Países Bajos por un gobierno local para predecir quién podría cometer fraude en la asistencia social se dirigió erróneamente a las mujeres y a los inmigrantes que no hablaban neerlandés.
Los autores también se muestran escépticos ante las empresas centradas principalmente en los riesgos existenciales, como la inteligencia artificial general (AGI), el concepto de un algoritmo superpoderoso mejor que los humanos para realizar un trabajo. Sin embargo, no se burlan de la idea de la AGI: “Cuando decidí convertirme en informático, la posibilidad de contribuir a la AGI era una parte importante de mi propia identidad y motivación”, sostiene Narayanan. El desajuste se debe a que las empresas dan prioridad a los factores de riesgo a largo plazo por encima del impacto que las herramientas de IA tienen en las personas en este momento, un estribillo común que he oído repetir a los investigadores.
Los autores señalan que gran parte de la exageración y los malentendidos se deben también a una investigación chapucera y no reproducible. “Hemos descubierto que, en un gran número de campos, el problema de la filtración de datos conduce a afirmaciones demasiado optimistas sobre lo bien que funciona la IA”, manifiesta Kapoor. Se habla de fuga de datos cuando la IA se pone a prueba utilizando parte de los datos de entrenamiento del modelo, algo parecido a repartir las respuestas a los estudiantes antes de realizar un examen.
Según los investigadores de Princeton, mientras que en AI Snake Oil se describe a los académicos como autores de “errores de manual”, los periodistas están más motivados por la malicia y se equivocan intencionalmente: “Muchos artículos no son más que notas de prensa reformuladas y convertidas en noticias”, y se señala como especialmente tóxicos a los reporteros que eluden la información honesta en favor de mantener sus relaciones con las grandes empresas tecnológicas y proteger su acceso a los ejecutivos de las empresas.
Críticas fundadas
Creo que las críticas al periodismo de acceso son justas. En retrospectiva, podría haber hecho preguntas más duras o más inteligentes durante algunas entrevistas con las partes interesadas de las empresas más importantes en IA. Pero puede que los autores estén simplificando demasiado el asunto. El hecho de que las grandes empresas de IA me dejen entrar no me impide escribir artículos escépticos sobre su tecnología o trabajar en artículos de investigación que sé que les molestarán. Sí, incluso si hacen tratos comerciales, como hizo OpenAI, con la empresa matriz de WIRED.
Y las noticias sensacionalistas pueden inducir a error sobre las verdaderas capacidades de la IA. Narayanan y Kapoor destacan la transcripción del chatbot de 2023 del columnista del New York Times Kevin Roose interactuando con la herramienta de Microsoft titulada Bing’s A.I. Chat: ‘I Want to Be Alive. 😈’ como ejemplo de periodistas que siembran la confusión pública sobre los algoritmos sintientes. “Roose fue una de las personas que escribió estos artículos”, refiere Kapoor. “Kapoor menciona el chatbot ELIZA de los años 60, cuyos usuarios antropomorfizaron rápidamente una tosca herramienta de IA, como ejemplo paradigmático de la persistente necesidad de proyectar cualidades humanas en meros algoritmos.
Roose declinó hacer comentarios cuando se le contactó por correo electrónico y, en su lugar, me remitió a un pasaje de su columna, publicado aparte de la extensa transcripción del chatbot, en el que afirma explícitamente que sabe que la IA no es sensible. La introducción a su transcripción del chatbot se centra en “su secreto deseo de ser humano”, así como en “pensamientos sobre sus creadores”, y la sección de comentarios está plagada de lectores preocupados por el poder del chatbot.
En AI Snake Oil también se cuestionan las imágenes que acompañan a los artículos. Las publicaciones suelen utilizar metáforas visuales tópicas, como fotos de robots, en la cabecera de una noticia para representar características de la inteligencia artificial. Otro tropo común, la ilustración de un cerebro humano alterado y repleto de circuitos informáticos utilizados para representar la red neuronal de la IA, irrita a los autores: “No somos muy fans de los circuitos cerebrales”, confiesa Narayanan, “Creo que esa metáfora es muy problemática. Sugiere que se utilicen imágenes de chips de IA o unidades de procesamiento gráfico (GPU) para representar visualmente los artículos sobre inteligencia artificial.
Educación es todo lo que hace falta
La firme advertencia sobre el ciclo del hype publicitario de la IA proviene de la creencia de los autores de que los grandes modelos de lenguaje (LLM) seguirán teniendo en realidad una influencia significativa en la sociedad y deberían debatirse con más precisión: “Es difícil exagerar el impacto que los LLM podrían tener en las próximas décadas”, aclara Kapoor. Incluso si la burbuja de la IA acaba explotando, estoy de acuerdo en que algunos aspectos de las herramientas generativas serán lo suficientemente pegajosos como para seguir existiendo de alguna forma. Y la proliferación de herramientas de IA generativa, que los desarrolladores están poniendo a disposición del público a través de aplicaciones para teléfonos inteligentes e incluso formateando dispositivos a su alrededor, no hace sino acentuar la necesidad de una mejor educación sobre lo que es la IA y sus limitaciones.
El primer paso para entender mejor la IA es aceptar la vaguedad del término, que engloba una serie de herramientas y áreas de investigación, como el procesamiento del lenguaje natural, en un paquete ordenado y comercializable. AI Snake Oil divide la inteligencia artificial en dos subcategorías: la IA predictiva, que utiliza datos para evaluar resultados futuros, y la IA generativa, que elabora respuestas probables a preguntas basándose en datos anteriores.
Vale la pena que cualquiera que se encuentre con herramientas de IA, voluntariamente o no, dedique al menos un poco de tiempo a tratar de comprender mejor conceptos clave, como el aprendizaje automático y las redes neuronales, para desmitificar aún más la tecnología y protegerse del bombardeo de propaganda sobre la IA.
Durante los dos últimos años que he dedicado a la IA, he aprendido que, aunque los lectores comprendan algunas de las limitaciones de las herramientas generativas, como los resultados imprecisos o las respuestas sesgadas, mucha gente sigue teniendo dudas sobre todos sus puntos débiles. Por ejemplo, en la próxima temporada de AI Unlocked, mi boletín (en inglés) diseñado para ayudar a los lectores a experimentar con la IA y comprenderla mejor, incluimos una lección entera dedicada a examinar si se puede confiar en ChatGPT para dispensar consejos médicos basados en preguntas enviadas por los lectores. (Y si mantendrá en privado tus indicaciones sobre ese extraño hongo en las uñas de los pies).
Un usuario puede acercarse a los resultados de la IA con más escepticismo cuando conoce mejor de dónde proceden los datos de entrenamiento del modelo (a menudo de las profundidades de internet o de los hilos de Reddit) y esto puede dificultar su confianza equivocada en el software.
Narayanan cree tan firmemente en la importancia de una educación de calidad que empezó a enseñar a sus hijos las ventajas y desventajas de la IA a una edad muy temprana: “Creo que debería empezar desde la escuela primaria”, recomienda. “Como padre, pero también basándome en mi conocimiento de la investigación, mi enfoque de esto es muy tecnológico”.
Puede que la IA generativa sea capaz de escribir correos electrónicos medio decentes y ayudarte a comunicarte a veces, pero solo los humanos bien informados tienen el poder de corregir los fallos de comprensión en torno a esta tecnología y elaborar una narrativa más precisa de cara al futuro.
Hola, esto es un comentario.
Para empezar a moderar, editar y borrar comentarios, por favor, visita en el escritorio la pantalla de comentarios.
Los avatares de los comentaristas provienen de Gravatar.