Secciones
Servicios
Destacamos
Llevo un tiempo a vueltas con las IAs, o mejor dicho, los modelos de lenguaje generativo (MLG). Voy a plantear la hipótesis de lo que podría suceder si estos artilugios lograran (según algunos expertos, ya lo han conseguido) pasar el conocido experimento que planteó el ... matemático británico Alan Turing en 1950, publicado en el artículo 'Computing Machinery and Intelligence', denominado como 'Test de Turing'.
El experimento consiste en que un investigador plantea una serie de preguntas a una máquina y a un ser humano y se trata de averiguar si las respuestas de ambos se pueden distinguir. Lo que le interesaba a Turing no es saber si la máquina es inteligente, sino si su 'inteligencia' metafórica se puede distinguir de la humana. Para la comunicación se emplea un teclado y una pantalla. El interrogador solo cuenta como información con las respuestas que aparecen en la pantalla. Al final, el interrogador debe emitir un juicio acerca de qué respuestas corresponden a la máquina y cuáles al ser humano. La máquina está preparada mediante instrucciones (algoritmo) para parecer humana. Evidentemente la máquina no puede estar programada para resolver cálculos matemáticos complejos, porque sería un criterio muy fiable para distinguirlas. Pues bien, diremos que la máquina supera el Test de Turing cuando el interrogador no logra distinguir si las respuestas son emitidas por la máquina o por un ser humano.
Supongamos que los MLG superan el Test de Turing. Los riesgos que se ciernen sobre nosotros son evidentes: no sabríamos si nos comunicamos con una máquina o con un ser humano, si la información es verdadera o falsa, creada por seres humanos o máquinas. Supongamos también que a los gigantes del sector tecnocrático, para dar una vuelta más de tuerca al poder de los datos que ya manejan sobre nosotros, les interesase crear caos: internet se llena de datos falsos, imágenes creadas por IAs, al charlar por WatsApp los contactos que interactúan con nosotros son máquinas y hasta nos pueden suplantar nuestra identidad, pongamos por caso en las operaciones bancarias en línea, o en nuestros contactos con la administración electrónica. El problema sería de tal calibre que los ciudadanos exigiríamos soluciones. Así, pues, la hipótesis que planteo es que probablemente nos venderían una solución drástica. Ante el miedo y el caos creado, aceptaríamos ponernos un chip, a modo de crotal, para poder saber quién está detrás de los datos, informaciones y para saber todo sobre nosotros: dónde estamos, en qué gastamos el dinero, lo que consumimos, si vertimos informaciones con riesgo para el sistema establecido, etcétera. ¿Creen ustedes que nos negaríamos a ponernos un chip? Me imagino que los nativos digitales no. Incluso lo verían guay. No haría falta llevar dinero encima, ni siquiera las engorrosas llaves, porque las puertas de las casas también serían digitales. Además, permitiría rastrear y ver quiénes son los que generan contenidos 'nocivos', los que discrepan o las personas políticamente incorrectas. En pocas palabras, el poder omnividente del Gran Hermano Orwelliano lo dominaría todo. Incluso si somos 'niños malos' nos podrían desconectar el 'crotal' y no podríamos acceder al fantástico mundo digital que lo sería todo en nuestra vida.
Cuando los gigantes tecnológicos nos advierten de que hay que regular los MLG para que esto no ocurra es porque saben lo que puede ocurrir y ya tienen la solución: implantarnos un chip digital a cada uno de nosotros para poder saber si es un humano o una máquina con quién interactuamos. Los que se nieguen quedarán fuera del sistema totalitario. Fíjense que el debate para la regulación de las IAs en la Comisión Europea ya plantea poner una etiqueta a los contenidos generados por éstas. El siguiente paso es que nos implantemos un chip.
Ojalá la hipótesis manejada sea falsa, pero el mundo que se perfila no es nada halagüeño. Los científicos del lenguaje pasaron desde la década de 1960 hasta los primeros años del siglo XXI intentando enseñar a leer a los ordenadores. Programaron definiciones y normas gramaticales en código, pero se encontraron siempre con escollos: cualquier lenguaje tiene excepciones, términos ambiguos, palabras polisémicas, argot e ironía, por lo que la complejidad del lenguaje hacía imposible su codificación. Con internet y las redes sociales todos hemos contribuido a crear trillones de expresiones sobre nuestras vidas, nuestro trabajo, nuestras relaciones de amistad, nuestros demonios y nuestros dioses y al hacerlo, sin darnos cuenta hemos construido el 'Big data', cuyo subproducto son las IAs. Los algoritmos pudieron empezar a estudiar nuestras palabras, nuestras apetencias, aversiones, compararlas con otras y recopilar información sobre su contexto y monitorear nuestra conducta. El 'progreso' ha sido tan rápido que los algoritmos han aprendido nuestros patrones de conducta y saben predecir sobre nuestro siguiente movimiento. En consecuencia, si no ponemos freno ya no podremos diferenciar qué información y creaciones son hechas por humanos o por máquinas, cuáles son verdaderas y cuáles falsas. Al tiempo.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.