Los gigantes estadounidenses de la IA se alían para autorregularse

Los gigantes estadounidenses de la IA se alían para autorregularse

Inteligencia Artificial (Fuente externa)

Los gigantes estadounidenses de la IA se alían para autorregularse

Anthropic, Google, Microsoft y el fabricante de la popular aplicación ChatGPT, cuatro compañías que lideran la carrera por la inteligencia artificial de última generación, anunciaron este miércoles la creación de un nuevo órgano profesional para prevenir y combatir los riesgos asociados a esta tecnología.

Bautizado como «Frontier Model Forum», su cometido es promover el «desarrollo responsable» de los modelos más sofisticados de inteligencia artificial (IA) y «minimizar los riesgos potenciales», según anuncian en un comunicado de prensa.

Puedes leer: La Inteligencia Artificial no reemplazará al ser humano, según especialistas

 Los miembros de este Foro del Modelo de Frontera se comprometen a compartir las mejores prácticas entre ellos mismos, pero también con legisladores, investigadores y asociaciones para que estos nuevos sistemas sean menos peligrosos.

Se trata de una respuesta conjunta a una creciente preocupación entre los legisladores de todo el mundo, también en la opinión pública, desde que el despliegue de la llamada tecnología de IA generativa esté rompiendo barreras tecnológicas inimaginables hace tan sólo unos años.

El uso de plataformas como ChatGPT, de OpenAI, o Bard, del gigante Google, se ha popularizado en ámbitos tan diversos como la educación, la seguridad o la sanidad, facilitando tareas, pero también generando dudas sobre sus propios límites.

En su compromiso, Frontier Model Forum acuerda desarrollar «mecanismos técnicos robustos», como, por ejemplo, sistemas de marcas de agua, para garantizar que los usuarios sepan cuándo el contenido es de IA y no de humanos. La prevención para luchar contra los ataques cibernéticos y el fraude también será clave.

Te puede interesar: DICAT advierte sobre los delitos con Inteligencia Artificial

image 104 4
Inteligencia Artificial (Fuente externa)

El reto de legislar la IA

Crear un marco legislativo para estas tecnologías será uno de los principales dilemas de los gobiernos en los próximos años. La Unión Europea está finalizando un proyecto de regulación para la IA que pretende imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas.

El presidente estadounidense, Joe Biden, por su parte los «enormes riesgos y esperanzas» generadas por la IA en una reunión en la Casa Blanca la semana pasada con representantes de las gigantes tecnológicas que se comprometieron a tomar precauciones para todo tipo de protección, desde ciberataques hasta fraudes a medida que crece el sector.

Junto a representantes de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, Biden anunció que las empresas se han comprometido a «guiar la innovación responsable» a medida que la IA se extiende cada vez más en la vida personal y empresarial.

 La Casa Blanca insta además a los grupos interesados a que sean ellos mismos quienes garanticen la seguridad de sus productos, en nombre de su «deber moral», como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.

Los líderes de estas empresas no niegan los riesgos

Recientemente, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron abiertamente a luchar contra «los riesgos de extinción» de la humanidad «vinculados a la IA».

Durante una audiencia en el Congreso de los Estados Unidos, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

Mientras tanto, OpenAI trabaja para lograr una IA denominada «general«, con capacidades cognitivas similares a las de los humanos. La empresa con sede en California asegura que se enfoca en los «modelos de frontera» de la IA, «modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública».

Advierte que estas capacidades peligrosas podrían «surgir inesperadamente» y que «es difícil evitar realmente que un modelo implementado sea mal utilizado».

Más leídas