Google se conforma, por ahora, con hacer “máquinas un poco menos tontas»

Google se conforma, por ahora, con hacer “máquinas un poco menos tontas»

Madrid. La inteligencia artificial empieza a demostrar su vasto potencial, pero el escenario en el que las máquinas superen al ser humano es lejano, ya que la tecnología está en una fase aún primitiva, es falible y su funcionamiento resulta un misterio incluso para propios creadores.

A veces nos conformamos con “poder hacer a las máquinas un poco menos tontas. Porque Alpha Go la máquina de Google que ganó al campeón mundial de go- es muy buena jugando al go, pero si juegas a la brisca le das una paliza.

¿Cómo puede ser tan lista para una cosa y tan tonta para otra?”, explica a Efe el ingeniero de aprendizaje profundo de Google, Sergio Guadarrama.   El experto destaca que la inteligencia artificial ya ofrece “mejoras sustanciales” de procesos, productos y servicios de áreas tan diversas como el arte, la medicina, la justicia o el medio ambiente, pero insiste en que solo ha dado “pasos iniciales” y necesita evolución.

¿Significa eso que la inteligencia artificial está en su prehistoria? “Probablemente sí. (…) Es muy incipiente”, sostiene.   Guadarrama trabaja en aprendizaje profundo (“deep learning«), una rama de inteligencia artificial en el que la máquina aprende a partir de ejemplos (un caso detecta cuándo en una imagen aparece un perro, tras analizar millones de fotos de perros) y elabora por sí sola patrones cada vez más complejos.

Es el ámbito más prometedor aunque durante años sus investigadores estuvieron “marginados y sus resultados están presentes en nuestra vida (los servicios de traducción, correo electrónico o reconocimiento de voz lo utilizan), pero su estadio de investigación es tan primitivo que los creadores, pese a lograr resultados efectivos, desconocen cómo las máquinas llegan a ellos.

“A veces tiene un comportamiento que nos sorprende. Pero eso también pasó con la aviación, aprendimos a volar antes de entender todas las leyes de la aerodinámica”, concede.

Preguntado por la posibilidad de que esos sistemas autónomos puedan llegar a tomar decisiones que afecten al ser humano, Guadarrama es más que escéptico- “Si eso pasa, básicamente le das al botón y la apagas, desenfuchas y ya está”, bromea.

Pero después matiza “Google está siempre preocupada, en cierto sentido, de que las técnicas y algoritmos que desarrolla mejoren la vida de la gente, siempre tiene salvaguardas para corregir sus errores».