¿El avance de la IA fuera de control? Expertos advierten sobre graves riesgos

Aseguran que podría incrementar las desigualdades, propagar la desinformación e incluso volverse autónoma.

Foto: Freepik

La llegada de ChatGPT en 2023 marcó un hito al democratizar el acceso a la Inteligencia Artificial. Ha logrado consolidarse en 2024 con la difusión de herramientas como Google Bard, Dall-E y Midjourney, integrándose a la vida diaria.

Sin embargo, no todas las opiniones sobre uso en diferentes procesos son a su favor. Un grupo conformado por empleados, y otros profesionales del rubro, elevaron  una carta abierta alertando sobre los riesgos de un avance desproporcionado de esta tecnología.

¿Qué podría causar su uso excesivo?

Un total de 13 firmas respaldan este llamado dirigido a las grandes compañías de IA, exigiendo más debate y una mayor supervisión. ¿La Razón? Advirtieron que la IA podría ahondar las desigualdades, propagar desinformación e incluso volverse autónoma, provocando muertes.

Estas advertencias llaman aún más la atención ante la salida de figuras importantes de OpenAI, como su cofundador Ilya Sutskever y el investigador senior Jan Leike. Uno de estos exempleados confesó renunciar al perder la fe en que la empresa actuaría con responsabilidad «particularmente en lo que respeta a la Inteligencia Artificial general».

Si bien algunas compañías reconocen la necesidad de un «debate riguroso», los expertos también alertan sobre el uso de la IA para difundir desinformación masiva y bajo costo. En concreto, la tecnología permite generar masivamente mensajes falsos , multiplicando así su alcance e impacto a un costo significativamente menor.

Por ejemplo, en las elecciones detectaron una «masificación generalizada» de contenidos extranjeros generados por IA según explicó Valentin Chatelet de DFRLab a la AFP. “Una nueva etapa en la automatización de estas publicaciones que permite escalar su producción masiva», expresó.

Asimismo, datos del colectivo Antibot4Navalny que monitorea operaciones de influencia rusa revelaron que miles de bots son utilizados en la red X para difundir propaganda pro-Kremlin. De hecho, OpenAI admitió que grupos de influencia rusos y chinos emplearon sus programas para intentar manipular la opinión pública global.

Es evidente que la IA abrió una nueva frontera para la desinformación y propaganda a escala masiva, por lo que es recomendable implementar medidas y regulaciones para contrarrestar estos riesgos en un futuro.