Así es el futuro de la Internet: un estudio apunta al colapso cuando una IA aprende de otra IA

Desde hace aproximadamente dos años que el término inteligencia artificial es común en los artículos digitales, en los feeds de las redes sociales, y prácticamente en casi cualquier parte a la que dirijas tu mirada.

Tanto es así, que ya es posible crear webs solo con IA o cambiar tu cara en fotos gracias a la inteligencia artificial, y creemos que esto es solo la punta del iceberg de lo que se viene en el futuro cercano.

Uno de los principios de esta tecnología es que la IA aprenda del comportamiento y conocimiento humanos, pero, ¿qué pasaría si una IA aprendiera de otra IA? Pues bien, según un estudio de Nature, habría un llamado “colapso de modelo”.

Según los expertos que han llevado a cabo este estudio, el colapso de modelo es un proceso degenerativo que ocurre cuando los modelos de IA aprenden a partir de datos generados por otros modelos de IA en lugar de datos genuinamente humanos.

En palabras sencillas, bajo estas condiciones, los modelos de IA empiezan a “olvidar” cómo eran los datos originales, lo que puede llevar a que terminen trabajando con información limitada y poco precisa.

Esta degeneración puede ocurrir en modelos de lenguaje como GPT, que es el que usa ChatGPT, autoencoders variacionales como los usados en la web This Person Doesn’t Exist, y modelos de mezcla gaussianos como los que se utilizan en el reconocimiento de voz de Google.

Los autoencoders variacionales permiten aprender a crear nuevas imágenes que se parecen a las originales, como si le enseñaras a alguien a dibujar gatos mostrándole muchas fotos de gatos y luego, esa persona pudiera crear nuevas fotos de gatos que nunca ha visto antes, pero que aún así parecen reales.

Por su parte, los modelos de mezcla gaussianos permiten encontrar patrones en datos complejos, lo cual es muy útil para categorizar y agrupar información.

Este colapso comienza por la pérdida de los eventos de baja probabilidad, para después ir perdiendo los que son más y más probables, generando datos que se alejan cada vez más de la realidad original.

Las causas que pueden dar lugar a esto son los siguientes, los cuales te explicamos de manera sencilla:

  1. Error de aproximación estadística: Si tuvieses los ojos vendados y un plato de comida frente a ti, y te dieran a probar solo una cucharada, no podrías decir con exactitud a que sabe todo el plato de comida. De igual manera, si un modelo de IA solo ve una parte limitada de los datos, puede que no aprenda bien sobre todo el conjunto de datos.
  2. Error de expresividad funcional: Si tuvieses que pintar La Gioconda con solo dos colores, siempre te faltarían colores por representar de manera fiel al original. Asimismo, un modelo de IA tiene limitaciones en su capacidad para representar todos los niveles de complejidad de los datos originales.
  3. Error de aproximación funcional: Si estás tratando de cocinar un pastel muy elaborado, pero las instrucciones son poco claras o el horno no calienta de manera uniforme, el resultado final no será el correcto, a pesar de tener todos los ingredientes. Igualmente, incluso con buenos datos, los métodos y herramientas que usamos para entrenar el modelo de IA pueden introducir errores.

Ahora bien, el estudio sugiere que para mitigar este colapso de modelo, es necesario mantener acceso a datos originales humanos para que los modelos de IA puedan aprender a largo plazo, evitando que sean entrenados con datos generados por otros modelos de IA.

Fuente:https://www.elgrupoinformatico.com/curiosidades/estudio-colapso-modelo-ia/?fbclid=IwZXh0bgNhZW0CMTEAAR3JExBVyJHxmEqqdX4ISZHDqZ8C_ibmcJH2R2cCpK-520dLRX5S1ksJWKA_aem_BHCEPfMyaxFiPzVJMn4JPA

Related posts

Leave a Comment