Grandes son los beneficios que brinda el Procesamiento del Lenguaje Natural (PLN) impulsado por la Inteligencia Artificial (IA), pero como todo lo relacionado con la IA comprende una dualidad ineludible. Demos una cautelosa mirada a este ámbito en sus dos vertientes: beneficios y perjuicios.
“El concepto de PLN pertenece a los campos académicos de las ciencias de la computación, de la IA y la Lingüística. Estudia las interacciones entre las computadoras y el lenguaje humano” (Levy, 2022). Tiene como objetivo hacer comprensibles los textos con la asistencia del ordenador (computador).
El PLN sirve para la traducción automatizada, el acceso a una base de datos, la recuperación de información, la categorización y la obtención de datos de un texto. Aplica a diferentes disciplinas como son la lingüística, administración pública, investigación, banca, mercadeo, derecho, servicio al cliente, mejora de la atención al paciente en entornos médicos, filosofía, neurociencias y la sicología cognitiva…
Los informáticos codifican los programas valiéndose de lenguajes de programación, mientras que los lingüistas computacionales se encargan de preparar el modelo lingüístico para que los ingenieros informáticos lo formalicen en un código funcional. Los sistemas informáticos procesan datos numéricos de un modo simple, pero el lenguaje humano es complejo, ya que tiene diferentes matices, sutilezas y significados según el contexto e informaciones no explícitas que se presta a diferentes interpretaciones.
Puede leer: El Quatrivium en la Cuarta Revolución Industrial
La Cuarta Revolución Industrial nos ha brindado los sistemas ciberfísicos, la industria de los productos inteligentes, el Internet de las cosas y los servicios, la hiperconectividad y el big data… Para todo ello contamos con la “Inteligencia Artificial específica” utilizada en la fabricación de máquinas y programas inteligentes; las “máquinas inteligentes de aprendizaje automático” (Machine learning) que tienen la habilidad de aprender sin ser explícitamente programadas (aprenden de su propia experiencia); y finalmente, contamos con el sistema de “aprendizaje basado en una red neuronal profunda” conocido como “aprendizaje profundo” [Deep Learning]. Son los niveles de aprendizaje que utiliza la ciencia de datos (Big data) y la analítica (de datos y textos).
Dado el tema en cuestión, conocer los siguientes términos resultará de utilidad: la “Minería de textos” trata del proceso de analizar colecciones de textos con el objetivo de capturar los temas y conceptos clave; descubrir las relaciones ocultas y las tendencias existentes. Por otro lado, la “Minería de data” como proceso directo sobre data estructurada identifica las relaciones causales. La “Analítica”, por su parte, extrae automáticamente información de alto valor. Esta extracción suele involucrar el descubrimiento de patrones y finalmente, la evaluación e interpretación de los resultados.
¿Qué nos permite el PLN? Dominar el texto; categorizar y analizar estructuras lingüísticas; clasificar textos en base a estructuras jerárquicas o taxonomías; el agrupamiento por similitudes; la extracción de información; detectar la entidad; dividir el texto en partes; etiquetar el texto; analizar y clasificar las respuestas abiertas en los cuestionarios de investigación: estructurar información textual en las redes sociales; analizar los sentimientos para procesar conversaciones, previamente codificadas en texto o mediante software de reconocimiento de voz; identificar el idioma; detectar la reputación de la organización o persona; resumir el texto según su longitud; analizar la estructura del texto. Además, el razonamiento semántico; el análisis de sentimiento; identificación de tópicos; innovación (individualizada); actualización del conocimiento; divide las palabras a su forma raíz; realizar un árbol de constituyentes y dependencias sintácticas básicas.
Hasta aquí, como puede observarse, todo resulta positivo y de gran utilidad. Pero la dualidad se aferra a la tecnología y a los beneficios vienen atados los perjuicios. La versión más avanzada del PLN es capaz de crear no solo noticias verdaderas o falsas sino de crear literatura: nuevas novelas, relatos, cuentos, ensayos, poesías, en fin… todo tipo de literatura y noticias a partir de la información acumulada en la Internet. El big data, tecnología de almacenamiento de grandes cantidades de datos, y los procedimientos adoptados para encontrar patrones repetitivos dentro de esos datos dan soporte al programa. Este sistema permite que las tareas puedan beneficiarse de técnicas sin supervisión siempre y cuando existan suficientes datos. La máquina aprende sola y lo hace desde textos sin formato. Recientemente, la versión GPT2 fue presentada de manera pública. La compañía que creó esta nueva versión asegura tener como misión: “asegurar que la inteligencia general artificial beneficie a toda la humanidad”. No obstante, reconocieron que en manos indebidas el sistema podría resultar peligroso (Oponía, 2019).
El mimetismo ha sido utilizado por los creadores de los nuevos mundos tecnológicos para componer narrativas artificiales, imitando lo humano. El imaginario es reemplazado por el paradigma productivo a través de redes neuronales artificiales. Estamos en pleno riesgo de que se arranque de raíz el legado de la narrativa humana que deja huellas del sentir y de la historia de los pueblos. Y así, el mundo del silicio, de los algoritmos y de los chips crea una imaginación artificial que escribe la nueva literatura. Se trata de la reproducción de palabras y frases de mayor interés según el tema de que se trate. La selección se realiza a través de algoritmos de aprendizaje (fórmulas probabilísticas). Utiliza el “Machine Learning” [aprendizaje automático] que en su uso más básico usa algoritmos para mapear datos, aprender de ellos y luego ser capaces de hacer predicciones (Rodríguez, 2018). En el “Deep Learning” [aprendizaje profundo], la máquina aprende a través de ejemplos y “extrae una representación significativa de cada revisión de una manera no supervisada”. Las áreas de aplicación y focos de investigación principales del “Deep Learning” son las siguientes: el lenguaje natural y el procesamiento de textos, la recuperación de información y el procesamiento de información multimodal, habilitados por el aprendizaje profundo de tareas múltiples (Li Deng y Dong Yu, 2014).
Se trata de la Literatura de la era de la Industria 4.0. Palabras y frases seleccionadas por su valor probabilístico y su fin ulterior. Calcos transformados por programaciones. Literatura convertida en data que se desmembra y une en forma de narración. Sin lugar a dudas, la creación tendrá otro significado: será realizada por la IA que suplanta la mente humana en su más altruista función, la de crear arte como expresión del espíritu. Las empresas tecnológicas penetran con sus máquinas para la creación de un nuevo mundo donde la verdad puede no tener valor.
La fecunda imaginación humana que faculta al escritor para la creación de magníficos textos escritos corre peligro. ¿De que servirá ahora? No se trata de una imaginación infecunda atada a fantasías sino de una imaginación enlazada a las necesidades de la sociedad dando soporte a la vida y ayudando a su transformación en todo el ámbito que concierne a lo humano. Todo anuncia el arribo de una literatura automatizada, manipulada. Cuando recordamos que la imaginación humana es signo de vida se convierte de inmediato en un problema filosófico de gran magnitud sobre el cual debemos reflexionar.
¿Hacia dónde vamos? Hoy lo real y lo irreal se convierten en una imitación vacía del otro. Plagiada la imaginación por las máquinas equivale a la desaparición de la huella del ser pensante: la literatura y sus efectos positivos sobre las generaciones venideras. ¿Hay supervivencia posible para la imaginación humana, después de está deconstrucción? Creo que estamos en peligro de que la obsesión por la tecnología pueda terminar con la cultura tal como la conocemos…