Alarman rápidos avances en la Inteligencia Artificial

La inteligencia artificial (IA) vino para quedarse y sustituir al ser humano, muestra de ello es el caso del ChatGPT, un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, genera asombro y preocupación. Foto: Cortesía.

Por Alberto Barrera

Pittsburg, California-Los acelerados progresos en la investigación e implementación de la Inteligencia Artificial (IA) han sorprendido al mundo, incluyendo a sus creadores, porque se pueden escribir textos para crear imágenes o música y códigos de cómputo, por lo cual ya se están eliminando puestos de trabajo humanos. También se puede engañar y desinformar con facilidad.

La huelga de 11,500 escritores y guionistas es un ejemplo. Muchos han mantenido piquetes frente a grandes empresas productoras de cine en Hollywood y algunos medios la llaman “la primera escaramuza en una nueva guerra”, debido a las amenazas que representa la IA.

Los huelguistas, aglutinados en WGA (Writers Guild of America West), plantean en sus demandas mejoras salariales y otros puntos, entre ellos que los estudios cinematográficos “acuerden no usar la IA para escribir o reescribir historias”, informó la revista Vanity Fair.

Los escritores aluden el bot conversacional ChatGPT, lanzado el 30 de noviembre del año pasado y que fue construido sobre modelos fundamentales de lenguaje, facilita el trabajo de escribir sin necesidad de expertos, en ese caso guionistas creativos de cine o televisión.

Una herramienta con capacidad para entender el discurso humano a partir de información que se le proporcione.

Ese sistema de ChatGPT se basó en lo que sus creadores llamaron GPT-3.5 y el pasado 14 de marzo se lanzó la versión basada en GPT-4, el modelo más nuevo. Científicos informáticos como Geoffrey Hinton y Samy Bengio alertaron que esos y otros sistemas que se crearían en la acelerada carrera de la industria, podrían superar la inteligencia humana, aunque con “objetivos desalineados” y creen que se plantearían “riesgos existenciales.”

Hinton, a quien algunos consideran el “padrino de la inteligencia artificial”, dejó a finales de abril su puesto en el gigante tecnológico Google para alertar sobre lo que llamó “peligros” de la tecnología que él mismo ayudó a desarrollar. Su trabajo sobre redes neuronales dio forma a los sistemas de inteligencia artificial que impulsan muchos de los productos actuales.

“Me consuelo con la excusa habitual: si no lo hubiera hecho yo, habría sido alguien más”, declaró Hinton al diario The New York Times.

Hinton explicó por qué renunció: “Me fui para poder hablar sobre los peligros de la IA sin tener en cuenta cómo esto afecta a Google”, dijo en un tuit. Aunque solo trabajaba medio tiempo durante una década destacó y aceleró el proceso de los productos creados.

Bengio por su parte dejó Google en protesta por despidos de otros colegas que cuestionaron la revisión de trabajos y por prácticas de diversidad, informó el 6 de abril Reuters. Bengio pasó unos 14 años en la empresa y fue uno de sus primeros empleados que participó en “Google Brain”, un proyecto de una década que avanzaba en algoritmos cruciales para el funcionamiento de varios sistemas modernos de inteligencia artificial.

Antes, el 23 de julio de 2022 Tiffany Wertheimer de BBC News informó que Google despidió al ingeniero Blake Lemoine porque dijo que uno de los programas de inteligencia artificial de la empresa mostraba tener sentimientos.

Según la nota, un mes antes de su despido, Lemoine dijo que su teoría es que la tecnología de lenguaje de Google es “sintiente” y que, por tanto, se le deben respetar sus “deseos.” Google y expertos en IA negaron sus afirmaciones. La empresa confirmó que fue despedido.

Google sostuvo que las declaraciones de Lemoine sobre LaMDA (Language Model for Dialogue Applications, Modelo de Lenguaje para Aplicaciones de Diálogo) no tienen “ningún fundamento” y que intentaron clarificarlo. Dijeron que es un sistema que imita el habla al procesar miles de millones de palabras en internet. Es la herramienta de la compañía para construir chatbots.

Lemoine le dijo al diario The Washington Post que su trabajo consistía en revisar si la tecnología usaba discurso de odio o discriminatorio. Halló que LaMDA mostraba auto-conciencia y que podía sostener conversaciones sobre religión, emociones y miedos.

Los temores gubernamentales, expertos y sectores sociales

Las renuncias y despidos se producen en medio de crecientes preocupaciones de gobiernos, legisladores, miembros de grupos de defensa y expertos en tecnología que alarmados ven la posibilidad de nuevos chatbots que se usan para difundir información errónea –que puede alterar elecciones- y eliminar empleos.

OpenAI, Microsoft y Google están a la cabeza de esta tendencia, pero IBM, Amazon, Baidu y Tencent están trabajando en tecnologías similares, agregó la cadena de televisión por cable CNN.

Otros sistemas como MidJourney que puede crear imágenes a partir de descripciones textuales, CharacterAi una aplicación web de chatbot, modelo de lenguaje neuronal que puede generar respuestas de texto similares a las humanas y participar en conversaciones contextuales y Runway que puede producir videoclips basados en mensajes de texto. En su página Runway G-2 se promueve: “Sin luces, no cámaras, toda acción”, y motivante asegura que “usando nada más que palabras (Texto a Video). Es como filmar algo nuevo, sin filmar nada en absoluto.”

La vicepresidenta de Estados Unidos Kamala Harris se reunió con directores de Google, Microsoft y otras dos empresas que desarrollan inteligencia artificial para conversar sobre iniciativas de su gobierno en pro de que la tecnología en el afán, dijo, de que “mejore la vida de las personas sin poner en riesgo sus derechos y seguridad”, informó The Associated Preess.

El gobierno estadounidense anunció una inversión de 140 millones de dólares para la creación de siete nuevos institutos de investigación sobre la inteligencia artificial.
Es por eso que director ejecutivo de OpenAI, Sam Altman -fabricante de ChatGPT-, ha sido llamado a testificar ante el Congreso sobre la regulación del sistema y luego para discutir una ley que regule su funcionamiento, dijo The Washington Post. La audiencia se produce cuando legisladores y funcionarios federales lidian de cómo abordar la creciente popularidad de herramientas de IA.

El rápido despliegue de productos ha desencadenado una carrera armamentista de IA en la industria tecnológica y ha generado alarma entre algunos especialistas en ética. Funcionarios temen el potencial de la tecnología para difundir información errónea, reemplazar empleos o causar un daño significativo a los usuarios.

Algunos consideran una amenaza planteada por los llamados deepfakes o “medios sintéticos” –videos, imágenes o audios generados- que imitan a una persona y son tan convincentes que pueden engañar a personas y hasta los algoritmos. Todo a costos mínimos y cuando se atan a algoritmos en redes sociales podrían ser “trucos sucios” en campañas para engañar electores.

Y advierten probables implicaciones en las campañas y elecciones de 2024 en Estados Unidos. “La IA generativa no solo puede producir rápidamente correos electrónicos, textos o videos de campaña específicos, sino que también podría usarse para engañar a los votantes, hacerse pasar por candidatos y socavar las elecciones a una escala y a una velocidad aún no vistas”, dijo la AP.

Y para atizar las preocupaciones el gigante tecnológico IBM anunció que entre sus planes en los próximos cinco años espera reemplazar unos 7,800 puestos de trabajo por IA. Arvind Krishna, CEO de la compañía, dijo a Bloomberg que tareas como documentar movimientos de los empleados y redactar cartas de verificación pueden ser las primeras en ser asumidas por la IA