2-2
Reconocer la creación de valor de la IA junto con la bendición que ha brindado al campo de la medicina e investigación y los persistentes esfuerzos de los expertos en el área para superar problemas hasta ahora insalvables, orientados al bien de la humanidad es fundamental para poder valorar el poder positivo de la IA. Incluso vale la pena mencionar la entrega de la secuencia del mercado, la focalización y el posicionamiento que han puesto en marcha dichas empresas y que han permitido el acceso a dichas herramientas por la gente común.
Los líderes que deben trazar el futuro de sus empresas de IA enfrentan el desafío de encontrar un camino que tenga sentido. Hoy no es como ayer, y mañana será diferente a hoy. Continuar con la estrategia actual es arriesgado; también lo es recurrir a una nueva estrategia cuando las fuerzas globales continúan afectando la vida personal, empresarial y regional. Las medidas proteccionistas extremas pueden disminuir o detener su proliferación, pero aumentarán el coste para todos. El continuo impulso hacia la desregulación del sector económico y la disposición hacia la regulación de la AI es notorio. Pero debemos reconocer que los avances tecnológicos suponen infinitas oportunidades y a su vez grandes riesgos. La tecnología continuará perfeccionándose y sorprendiéndonos. Mientras todo ello sucede, el valor de la vida humana debe primar. Pensar en sopesar y redefinir la vida humana frente a la IA es asunto delicado y peligroso. El ser humano no es una “cosa” desechable ni intercambiable. Se trata de un ser físico y espiritual que cuenta con capacidad inventiva e intelecto, un pensamiento superior, complejo, abstracto, profundo; tanto así, que ha sido capaz de crear la IA.
A pesar de sus grandes utilidades, la IA también nos enfrenta a un mundo de grandes riesgos e incertidumbres lo que nos acerca a un futuro desconocido que nos puede llevar por un camino de oportunidades o por uno de consecuencias adversas. Eventos insospechados pueden ocurrir y los eventos disruptivos pueden ser enormes con consecuencias tangibles e intangibles. Entonces, debemos identificar, medir, analizar y controlar los riesgos a través de un equipo gerencial multifactorial de expertos tal como sugiere la carta (Future of Life Institute, 2023). El asunto no es fácil pues los riesgos incluyen manipulación genética, activos humanos, responsabilidad legal, control mental, así como armas militares autónomas, entre muchos de igual importancia. Las pausas brindan tiempo para educar y concienciar a la sociedad y a los tomadores de decisiones. Asimismo, para abordar los nuevos desafíos que van enfrentando mientras avanzan rápidamente en la competencia hacia el objetivo de todas las compañías que se dedican a la IA, el Santo Grial del mundo tecnológico: la Inteligencia Artificial General (IAG), (AGI=Artificial General Intelligence) en pos de la Singularidad.
Sin lugar a dudas, es crucial asegurarse de que los sistemas de IA no violen derechos fundamentales. Pero, sobre todo, que se identifiquen y aborden los principales y graves riesgos relacionados con el uso de la IA en aplicaciones militares y de seguridad, particularmente en el desarrollo de sistemas autónomos y armas letales. La aplicación de la IA en sistemas militares puede dar lugar a una escalada en la carrera armamentista, ya que los países compiten por desarrollar tecnologías cada vez más avanzadas. Los ataques llevados a cabo por sistemas de IA autónomos pueden dificultar la atribución y la responsabilidad, lo que complica la identificación y la rendición de cuentas. Esto puede aumentar la inestabilidad internacional y la probabilidad de conflictos. Si estos sistemas toman decisiones letales sin supervisión humana adecuada, pueden cometer errores catastróficos o ser utilizados de manera maliciosa. La proliferación de tecnologías de IA en aplicaciones militares podría afectar la estabilidad global y cambiar el equilibrio de poder entre las naciones. Para abordar todos estos problemas es fundamental que la comunidad internacional trabaje unida para establecer normas, regulaciones y una supervisión humana efectiva.
Grandes empresas tecnológicas pueden acumular enormes cantidades de datos y recursos para desarrollar sistemas de IA, lo que puede dar lugar a un monopolio y con ello a una concentración de poder, que puede llegar a ser no solo económico sino, también, político, limitando o controlando la competencia y la innovación. Por otro lado, uno de los puntos de mayor importancia es la necesidad de analizar, vigilar y controlar cómo evoluciona la autonomía de los sistemas de IA, especialmente en aplicaciones críticas, pues plantea la preocupación de que el ser humano pierda el control sobre las decisiones y acciones de la tecnología y la posibilidad de ser utilizados con fines maliciosos. La automatización de empleos se encuentra en la línea fronteriza, pues la misma resulta económicamente beneficiosa para las empresas y Gobiernos, pero se corre el riesgo de dejar muchas familias enfrentadas a una importantísima reducción de sus ingresos e incluso a la pobreza extrema.
Beneficios incontables brinda la IA a la salud: diagnósticos tempranos, tratamientos no invasivos; la posibilidad de analizar grandes conjuntos de datos médicos… Todo ello tiene un costo y el impacto puede ser negativo sobre la privacidad y seguridad de los datos debido a la recopilación y el almacenamiento de información médica. Por lo demás, y en otro ámbito, la IA influye tanto de manera positiva como negativa en la sostenibilidad medioambiental y la huella ecológica. La IA puede optimizar el uso de recursos energéticos al controlar y ajustar sistemas. Sin embargo, hay múltiples fuentes de impacto negativo de la IA sobre la sostenibilidad medioambiental: la capacitación y el funcionamiento de modelos de IA a gran escala pueden ser intensivos en energía, lo que puede aumentar la demanda y contribuir a las emisiones de carbono si no se utiliza energía renovable. La rápida evolución de la tecnología de IA puede llevar a una mayor obsolescencia de dispositivos electrónicos, lo que aumenta la producción de residuos electrónicos.
Las compañías tecnológicas han tenido tiempo de avanzar y desarrollarse por décadas y mucho más aceleradamente en los últimos cinco años. Ahora los riesgos se ven con cierta claridad, por lo que en verdad parece que ya es tiempo de crear políticas, marcos legales y regulatorios, que permitan el desarrollo, pero que controlen los avances extremos que puedan afectar a la humanidad tal como la conocemos. Si bien sería interesante la participación o consulta pública, hay dos puntos importantes que pueden afectar un juicio justo: el miedo que se le ha creado a la población sobre su implementación, lo que sesga cualquier decisión, y la poca información que tiene la mayoría de las personas sobre sus beneficios y riesgos.
En definitiva, la IA ha avanzado de tal manera que debemos concentrar nuestros esfuerzos en evitar que afecte a “la humanidad’ en su “ser” y su “esencia”. Me parece que estas tres citas que menciono a continuación nos pueden iluminar: en primer lugar, la del italiano Roberto Calasso, escritor y estudioso de los mitos griegos, quien inspirado en el «El matrimonio de Cadmo y la Armonía» asegura: “Cuando la vida se despoja de todas sus galas, lo que queda es la fortuna. Todo lo que sucede es una colisión constante de dados lanzados” (Calasso, 1990). En segundo lugar, dos frases provenientes del encuentro entre Albert Einstein y Niels Bohr en el “Quinto Congreso Solvay” titulado “Electrones y fotones”, que tuvo lugar en el Instituto de Fisiología de Bruselas. Cuenta la leyenda que fue en este congreso donde el padre de la teoría de la relatividad dijo: “Dios no juega a los dados” (Einstein, 1927). Y el de la física cuántica le respondió: “Deja de decirle a Dios lo que tiene que hacer” (Bohr, 1927). Aquí y ahora y con una intención pura pongamos la IA en manos de los expertos con el apoyo de Dios…