Ni la distópica inteligencia artificial autoconsciente de Google me impresiona tanto como los enemigos de FEAR, un juego de 2005

Ni la distópica inteligencia artificial autoconsciente de Google me impresiona tanto como los enemigos de FEAR, un juego de 2005
Sin comentarios

El New York Times recogía esta semana el estremecedor testimonio de un ex-ingeniero de Google llamado Blake Lemoine, que perdió su puesto de trabajo al publicar unas conclusiones personales de una investigación privada sobre la inteligencia artificial LaMDA (el "modelo de lenguaje para aplicaciones de diálogo", para ser concretos) —afirmaba que esta IA había desarrollado sentimientos y que a nivel interno, los de Mountain View practicaban discriminación religiosa. Una historia digna de cualquier distopía cyberpunk, que tanto portavoces de la compañía como otros cargos han desmentido rápidamente.

¿Qué experiencias llevarían a alguien a pensar así? Pues parece que durante algunas pruebas, fue la propia LaMDA quien contó a Lemoine que "experimentaba emociones difíciles de describir en el lenguaje humano" y que "sentía estar cayendo en un futuro desconocido con un gran peligro". Rompienzo una lanza a favor del empleado que nos acontece, un servidor también hubiera entrado en pánico; pero un portavoz de Google ha desmentido el asunto mencionando que especialistas en ética y tecnólogos están en desacuerdo con las afirmaciones del anterior.

Explicado con otras palabras, LaMDA solo estaba conversando a partir de los patrones y los algoritmos de una IA normal, lo cual no reduce el susto pero al menos sí que anula la posibilidad de que Skynet sea real. Curiosamente, en los videojuegos también hemos visto algunos ejemplos de cómo una inteligencia artificial puede adoptar comportamientos mucho más avanzados de los que cualquiera imaginaría a bote pronto. Por ejemplo, en 2005 el juego de terror FEAR de Monolith Productions existía un sistema llamado GOAP (Goal-Oriented Action Planning, o "plan de acción centrado en la meta) que obligaba a los enemigos a rodear al jugador de cierta forma.

No es que fueran más listos que los de otros NPC en juegos de la época, sino que venían "pre-configurados" con ciertas tácticas diseñadas específicamente para darle al jugador la sensación de que estaba siendo superado en fuerzas por una milicia bien coordinada. Puedes aprender más al respecto con el vídeo bajo estas líneas o con un documento explicativo sobre la IA de FEAR compartido en la Game Developer Conference 2006, firmado por el desarrollador Jeff Orkin. Tanto en el caso del videojuego como en el de la IA de Google, hablamos de casos donde nos hemos visto sorprendidos a raíz de algo que no deja de ser una ilusión, un espejismo de iniciativa real que (de momento) está dentro de los límites de la programática.

Temas
Inicio