El CEO de OpenAI pide leyes para mitigar los «riesgos de una IA cada vez más poderosa»
- Sam Altman dice ante el comité judicial del Senado de USA que apoya la creación de vallas de contención para que la tecnología minimice los daños
El CEO de OpenAI, la empresa responsable de crear el chatbot de inteligencia artificial ChatGPT y el generador de imágenes Dall-E 2, dijo que “la regulación de la IA es fundamental”, al testificar en su primera comparecencia frente al Congreso de EE.UU.
Al dirigirse al comité judicial del Senado el martes, Sam Altman dijo que apoyaba las medidas de protección regulatorias para la tecnología, lo cual permitiría mantener los beneficios de la inteligencia artificial y minimizar los daños.
“Creemos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos”, dijo Altman en sus comentarios.
Altman sugirió que el gobierno de EE. UU. podría considerar los requisitos de licencia y prueba para el desarrollo y lanzamiento de modelos de IA. Propuso establecer un conjunto de estándares de seguridad y una prueba específica que los modelos tendrían que pasar antes de que puedan implementarse, además de permitir que los auditores independientes examinen los modelos antes de su lanzamiento. También argumentó que los marcos existentes como la Sección 230, que libera a las plataformas de la responsabilidad por el contenido que publican sus usuarios, no sería la forma correcta de regular el sistema.
🇺🇸 "La intervención regulatoria de los gobiernos será crucial para mitigar los riesgos de modelos cada vez más poderosos", dice Sam Altman, director ejecutivo de OpenAI, creador de la interfaz ChatGPT, en una audiencia en el Senado de EEUU sobre el impacto de la IA #AFP pic.twitter.com/ZgDc5z1KDu
— Agence France-Presse (@AFPespanol) May 16, 2023
“Para una tecnología tan nueva, necesitamos un nuevo marco”, dijo Altman.
Altman, al igual que Gary Marcus, profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York, que también testificó en la audiencia, pidió una nueva agencia reguladora de la tecnología. La IA es complicada y se mueve rápido, argumentó Marcus, lo que hace que «una agencia cuyo trabajo de tiempo completo» sea regularla se vuelva crucial.
A lo largo de la audiencia, los senadores establecieron paralelismos entre las redes sociales y la IA generativa, y las lecciones que los legisladores aprendieron tras la falta de acción del gobierno para regular las plataformas sociales.
Sin embargo, la audiencia fue mucho menos polémica que aquellas en las que testificó el CEO de Meta, Mark Zuckerberg. Muchos legisladores le dieron crédito a Altman por sus llamados a la regulación y el reconocimiento de las trampas de la IA generativa. Incluso Marcus, que se mostró escéptico sobre la tecnología, calificó el testimonio de Altman como sincero.
La audiencia se produjo cuando expertos en IA y especialistas en ética reconocidos y respetados, incluidos los ex investigadores de Google, el Dr. Timnit Gebru, quien codirigió el equipo de IA ética de la compañía, y Meredith Whitaker, han estado haciendo sonar la alarma sobre la rápida adopción de la IA generativa, argumentando que la tecnología está sobrevalorada. “La idea de que esto va a convertirse mágicamente en una fuente de bien social… es una fantasía utilizada para comercializar estos programas”, dijo recientemente Whitaker, ahora presidente de la aplicación de mensajería segura Signal, en una entrevista con Meet the Press Reports.
La IA generativa es una máquina de probabilidad «diseñada para escupir cosas que parecen plausibles» basada en «cantidades masivas de datos bajo vigilancia efectiva que se han sacado de la web», argumentó.
Los senadores Josh Hawley y Richard Blumenthal dijeron que esta audiencia es solo el primer paso para comprender la tecnología.
Blumenthal dijo que reconoció lo que describió como «promesas» de la tecnología, que incluyen «curar el cáncer, desarrollar nuevos conocimientos de física y biología o moldear el clima y el pronóstico del tiempo».
Los riesgos potenciales que Blumenthal dijo que le preocupaban incluyen falsificaciones, desinformación armada, discriminación, acoso de mujeres y fraudes de suplantación de identidad. “Para mí, quizás la mayor pesadilla sea que la nueva revolución industrial que se avecina implique el desplazamiento de millones de trabajadores”, dijo.
Altman dijo que mientras OpenAI estaba construyendo herramientas que algún día «abordarían algunos de los mayores desafíos de la humanidad, como los cambios climáticos y la cura del cáncer», los sistemas actuales aún no eran capaces de hacer estas cosas.
Pero él cree que los beneficios de las herramientas implementadas hasta ahora “superan con creces los riesgos” y dijo que la compañía realiza pruebas exhaustivas e implementa sistemas de seguridad y monitoreo antes de lanzar cualquier sistema nuevo.
“OpenAI se fundó con la creencia de que la inteligencia artificial tiene la capacidad de mejorar casi todos los aspectos de nuestras vidas, pero también crea riesgos graves que tenemos que trabajar juntos para gestionar”, dijo Altman.
Altman dijo que la tecnología afectará significativamente el mercado laboral, pero cree que «habrá muchos más trabajos».
“Los trabajos mejorarán”, dijo. «Creo que es importante pensar en GPT como una herramienta, no como una criatura… GPT 4 y herramientas similares son buenas para realizar tareas, no trabajos. Creo que GPT 4 automatizará por completo algunos trabajos y creará otros nuevos que creemos que serán mucho mejores”.
Altman también dijo que estaba muy preocupado por el impacto que tendrán los grandes servicios de modelos lingüísticos en las elecciones y la desinformación, particularmente antes de las primarias.
“Hay mucho que podemos hacer y hacemos”, dijo Altman en respuesta a una pregunta de la senadora Amy Klobuchar sobre un tuit que ChatGPT elaboró que enumeraba lugares de votación falsos. “Hay cosas que el modelo no va a hacer y hay un seguimiento. A escala… podemos detectar a alguien generando muchos de esos tuits [de desinformación]”.
Altman aún no tenía una respuesta sobre cómo se puede compensar a los creadores de contenido cuyo trabajo se usa en canciones, artículos u otros trabajos generados por IA, y dijo que la compañía está comprometida con artistas y otras entidades sobre cómo podría ser ese modelo económico. Cuando Klobuchar le preguntó cómo planea remediar las amenazas a las publicaciones de noticias locales cuyo contenido se extrae y se utiliza para entrenar a estos modelos, Altman dijo que espera que la herramienta ayude a los periodistas, pero que «si hay cosas que podemos hacer para ayudar en las noticias locales, sin duda nos gustaría”.
El peligro potencial de que un pequeño grupo de jugadores poderosos domine la industria se mencionó, pero en gran medida no se incluyó en la conversación. Meredith Whitaker advirtió que se corre el riesgo de afianzar la dinámica de poder existente.
“Solo hay un puñado de empresas en el mundo que tienen la combinación de datos y poder de infraestructura para crear lo que llamamos IA de punta a punta”, dijo en la entrevista de Meet the Press. “Ahora estamos en una posición en la que esta tecnología sobrevalorada se está creando, distribuyendo y, en última instancia, configurando para servir a los intereses económicos de este mismo puñado de actores”.
Fuente: theguardian