Home Tech La endogamia entre chatbots como ChatGPT podría acabar con ellos

La endogamia entre chatbots como ChatGPT podría acabar con ellos

12
0
La endogamia entre chatbots como ChatGPT podría acabar con ellos
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab

La inteligencia artificial ya está aquí y se cree que será dueña del futuro, pero una nueva teoría plantea que la “endogamia” de la IA podría llevar a una muerte autoinfligida.

Desde Google hasta Microsoft, OpenAI y muchas empresas emergentes más pequeñas en el otro extremo de la escala, los LLM y las herramientas de IA que enseñan han cambiado la tecnología tal como la conocemos. La IA llegó para quedarse y ya está teniendo un impacto significativo en nuestro mundo en línea y en todo lo que pasa por él.

Parece inevitable que haya más evolución, pero ¿a qué precio y en qué medida? Ya sabemos que es extremadamente caro proporcionar la sala de máquinas que alimenta la IA, y que el sistema, que está repleto de servidores, apenas puede hacer frente a la situación. Los avances en IA son notables, pero también lo es la cantidad de recursos que necesitan las grandes empresas tecnológicas para sustentar el sistema.

Defectos irreversibles en los modelos resultantes

“Model collapse” considera que es posible que ya hayamos presenciado el auge de los modelos de IA, y presenta la teoría de que, a medida que más y más contenido web se genera mediante IA, la tecnología eventualmente se “endogámica” con los datos entrenados existentes, lo que generará fallas a medida que los datos generados por humanos se vuelvan cada vez más escasos.

Un nuevo artículo publicado en Naturaleza profundiza más en este concepto, que incluye la siguiente explicación:

“Encontramos que el uso indiscriminado de contenido generado por modelos en el entrenamiento causa defectos irreversibles en los modelos resultantes, en los que desaparecen las colas de la distribución de contenido original”, afirma el resumen. “Nos referimos a este efecto como ‘colapso del modelo’ y demostramos que puede ocurrir en [Large Language Models] así como en autocodificadores variacionales (VAE) y modelos de mezcla gaussiana (GMM)”.

Las grandes empresas tecnológicas se sienten atraídas por los brillantes y brillantes avances de la IA y el aumento de las acciones que estos impulsan. Eso no es lo mismo que las ganancias subyacentes, que a la larga pasarán factura. ¿Y qué pasa con el cambio climático? La IA consume mucha energía, lo que requiere la expansión de los centros de datos y mayores demandas de recursos.

Es poco probable que el concepto de “colapso del modelo” cambie la situación en el corto plazo, pero es otra pregunta interesante que se responderá más adelante.

Crédito de la imagen: vía Ideogram

Fuente