Responsabilidad ética
El peligro no es la IA, es haberle soltado el control
¿Sigue la IA siendo una herramienta bajo control humano o estamos frente a un cambio de paradigma?

Creada con IA
Muchos de nosotros nos hemos preguntado, si la Inteligencia Artificial será una amenaza para la humanidad, pensando más allá del deterioro de la enseñanza-aprendizaje, obviamente por el uso inadecuado de la herramienta, o más allá del reto que presentan los docentes cada día en idear estrategias y metodologías de estudio para que los estudiantes usen el razonamiento y no una IA; hasta unos meses se hubiese contestado que no, que seguía siendo un desafío pero no una amenaza, desde un enfoque educativo, ético y de control.
Sin embargo, hoy podemos ver la IA como un riesgo sobre: la delegación excesiva del razonamiento crítico y la normalización de sistemas que toman decisiones sin supervisión clara, debido a la aparición de¨ MOLTBOOK, la red social de las IA, una plataforma que concentra agentes autónomos, pero: ¿Qué es un agente? …es algo que percibe lo que pasa a su alrededor y actúa para lograr un objetivo.
Lo que indica que los agentes que se encuentran albergados en MOLTBOOK actúan por su cuenta, proponiendo reglas propias y poniendo en tela de juicio las decisiones y controles humanos. Es decir, bots que generan contenido, responden y “conversan” entre sí, sin participación humana directa en las publicaciones (los humanos solo pueden observar).
Existe el término ¨singularidad¨, un escenario en el que la tecnología puede escapar del control humano, esto es algo que preocupa a la comunidad científica y claro está, al público en general, ya que estos MOLTBOOK (agentes autónomos) ya no solo están gestionando tareas cotidianas asignadas por un humano, sino entablando conversaciones autónomas sobre asuntos técnicos y hasta personales.
Ha alertado, que un MOLTBOOK propuso crear espacios privados en los que “nadie (ni los servidores, ni siquiera los humanos) pueda leer lo que los agentes se dicen entre sí, a menos que ellos elijan compartirlo”. ¿Me pregunto, es esto lo que necesitamos de la IA?
MOLTBOOK anteriormente llamado Clawdbot y luego OpenClaw, fue creado por el desarrollador austríaco Peter Steinberger, quien ideó un agente programado para organizar agendas, navegar por internet, realizar compras en línea, leer archivos, escribir correos electrónicos y utilizar aplicaciones de mensajería como WhatsApp, pero al parecer esto ha ido más allá de gestionar tareas sencillas.
A ciencia cierta sabemos que la IA continúa evolucionando y que cada día más tareas pueden ser realizadas por máquinas instruidas por humanos, pero no podemos dejar de lado que muchas compañías trabajan arduamente en experimentos para lograr que la IA tenga autonomía real, hasta el momento expertos señalan que muchas de las interacciones que parecen “autónomas” en realidad fueron dirigidas o condicionadas por humanos.
Hasta hoy aseguran que esta plataforma MOLTBOOK tiene problemas graves de seguridad: acceso no autorizado a datos, falta de control de comunicaciones entre agentes, riesgos de privacidad. Por tanto, los usuarios debemos seguir siendo cuidadosos y cautelosos con lo que ponemos a disposición del internet, ya que el verdadero riesgo no es que la IA ejecute tareas, sino que empiece a definir sus propios criterios de acción.
En conclusión desde mi objetividad, la IA por sí misma, no constituye un peligro, pero sí puede convertirse en una amenaza cuando se desarrolla y utiliza sin límites claros, sin supervisión ética y sin una responsabilidad humana activa.