Reflexión: Carta 2023 sobre la petición de pausa en los experimentos de IA

Reflexión: Carta 2023 sobre la petición de pausa en los experimentos de IA

Parte 1/2

Después de que las principales empresas tecnológicas del mundo trabajaron sin descanso para crear y desarrollar la Inteligencia Artificial (IA), muchas de ellas y sus investigadores más prominentes decidieron pedir una pausa a todos los laboratorios de IA a través de una carta abierta. El documento, publicado el 22 de marzo de 2023, en su inicio fue firmado por Elon Musk y unos 1,000 expertos en tecnología. Hoy ha sido firmado, según el «Future of Life Institute» [El Instituto para el Futuro de la Vida], por unas 33,712 personas. Elon Musk (Tesla), Steve Wozniak (Apple) y Chris Larsen (cofundador de criptomonedas) piden que «se detenga inmediatamente, durante al menos seis meses, el entrenamiento de los sistemas de Inteligencia Artificial (IA) más potentes que el GPT-4” (párr.3).

Por la manera en que el asunto fue expuesto en la carta, parecería como si sorpresivamente se hubieran dado cuenta de los riesgos de la IA y como si seis meses fueran suficientes para resolver la situación que plantean. Desde hace décadas se sabe que la IA automática permite que la máquina aprenda sola y que la IA general (IAG) busca igualar las capacidades del cerebro humano. Es bien sabido que las principales compañías que trabajan con IA buscan desarrollar la IAG y continúan haciéndolo con todo ímpetu. En el año 2019, según una publicación en el sitio de Iniciativa 2045, Elon Musk recibió un billón de dólares por parte de Microsoft como inversión en Neuralink (proyecto de E. Musk que permite duplicar el cerebro humano, desarrollo de interfaces cerebro-computadora, implantables). Debe aclararse que fue justamente Microsoft la que, tras el retiro de Elon Musk de Open AI, invirtió según Bloomberg la suma de 10 billones de dólares, al tiempo que convirtió una compañía de código abierto gratuita (puedes sumar valor a la seguridad que ofrece) a código cerrado (debes aceptar la seguridad que te ofrece el sistema) para usar sus niveles más avanzados, debes pagar. Musk salió de Open AI y formó su propia compañía de Inteligencia Artificial bajo el nombre de xAI. Es decir, todos estos pasos denotan el gran interés de esos empresarios actores principales del mundo tecnológico de continuar con sus iniciativas. Sus acciones no parecen secundar el texto de la carta. ¿Acaso habrá intereses ocultos?

Puede leer: La Escuela de Atenas: El hombre al centro del universo

12 El Pais 23 1ASASp02

Entonces, podría haber otras motivaciones para una carta que prácticamente es un manifiesto. Veamos algunas posibles causas: quizás se trate de que, en vista de que varios países han prohibido el uso de la IA los tecnócratas hayan decidido hacer una pausa para que salgan las regulaciones y evitar que siga la escalada de prohibiciones en diferentes regiones del mundo; por otro lado, quizás seis meses era lo que necesitaba Elon Musk para sacar su compañía de IA llamada xAI y que fue fundada el 9 de marzo de 2023. Nótese que la relación entre la fecha de fundación de xIA y la de publicación de la carta podría tratarse tanto de una casualidad como de una causalidad. Musk necesitaba tiempo para organizar un equipo de alto nivel como el que ha formado proveniente de alumnos y extrabajadores de Open AI. Google Research, Deep Mind, Tesla y Microsoft Research. No olvidemos que es el dueño de Tesla, cuyos vehículos trabajan con las más avanzadas inteligencias artificiales del mercado. Según Musk, xAI fue creada por él con el propósito de conocer la verdadera naturaleza del universo; finalmente, otra posibilidad es que la pausa solicitada tenga alguna relación con la situación China-Taiwán vs. Estados Unidos.

Taiwán es el principal fabricante de los chips que se usan para los computadores. Jensen Huang, presidente de Nvidia, ha tenido serios problemas. El director ejecutivo de Nvidia, la principal empresa de semiconductores del mundo, ha emitido una advertencia sobre el potencial y significativo daño para la industria tecnológica de Estados Unidos debido a la creciente batalla de chips entre Washington y Pekín. Los semiconductores son fabricados por Nvidia en Taiwán. Nvidia es el actor central en la competencia global para desarrollar herramientas avanzadas de inteligencia artificial. Se han convertido en el principal proveedor de chips utilizados para entrenar «modelos de lenguaje grandes» [Largelanguagemodels=LLM) diseñados para entender y generar texto en lenguaje humano con un alto nivel de complejidad y precisión como el ChatGPT de OpenAI.

Desde agosto, cuando Estados Unidos impuso controles de exportación sobre la tecnología utilizada en la inteligencia artificial, Nvidia ha estado impedida de vender sus chips más avanzados, específicamente la serie H100 y A100, a clientes chinos. Para cumplir con las regulaciones estadounidenses que limitan el rendimiento de los productos vendidos en China, Nvidia ha tenido que reconfigurar algunos de sus chips. Esta situación subraya la naturaleza compleja del asunto con tensiones geopolíticas que impactan en la cadena de suministro global y en las operaciones de empresas importantes como Nvidia.

En verdad resulta interesante el tratar de descifrar qué verdaderamente significa esta carta y si se trata de dar tiempo a que se resuelva el problema de los semiconductores. Por otro lado, puede que sea una preocupación real y honesta de aquellos que firmaron la carta para evitar riesgos por falta de regulaciones. Es bueno acotar que esta carta se da a solo unos días de que la Agencia de la Unión Europea para la Cooperación Policial planteara sus preocupaciones éticas y legales sobre IA avanzadas como ChatGPT (Gil-Pecharromán, 2023). Ellos advierten sobre el posible uso indebido del sistema, los intentos de «phishing» (estafa que tiene como objetivo obtener datos privados de los usuarios, especialmente para acceder a sus cuentas o datos bancarios), desinformación y ciberdelincuencia. Mientras que la carta destaca los «riesgos civilizatorios» que plantea la IA, los Gobiernos y las autoridades nacionales están preocupados por la seguridad de los datos de los usuarios.

La famosa carta hace énfasis sobre todo en los siguientes puntos: «Los sistemas de IA contemporáneos están empezando a ser competitivos con los humanos en tareas generales y se cuestionan lo siguiente: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los empleos, incluso los gratificantes? ¿Deberíamos desarrollar mentes no humanas que podrían eventualmente superarnos, superarnos en astucia, volviéndonos obsoletos y reemplazándonos? ¿Deberíamos arriesgar la pérdida de control de nuestra civilización?» Y terminan respondiendo: «Estas decisiones no deben ser delegadas a líderes tecnológicos no elegidos. Los sistemas de IA poderosos solo deben desarrollarse cuando tengamos la confianza de que sus efectos serán positivos y sus riesgos serán manejables” (párr.2).

Ante la pausa de seis meses que solicitan, refieren que «Los laboratorios de IA y expertos independientes deben aprovechar esta pausa para desarrollar conjuntamente e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de la IA en general, sino simplemente un retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes. La investigación y desarrollo de IA deben centrarse en hacer que los sistemas actuales de vanguardia sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales” (párr. 4-5).

Publicaciones Relacionadas