Facundo Báñez
La rebelión de las máquinas
El desarrollo que podría alcanzar la inteligencia artificial y su eventual independencia de los seres humanos abre interrogantes propios de la ciencia ficción. Una mirada a un futuro que ya es presente en la nota de la semana de evista Acción.Esta nota no fue escrita por una inteligencia artificial (IA). ¿O sí? ¿Sería usted capaz de darse cuenta? Si bien los temores habituales que giran en torno a la IA se vinculan con la posibilidad de caer en la trampa de la falsificación o, aún peor, de ser reemplazado en un mercado laboral cada vez más incierto, hay otra duda que inquieta a los investigadores y que, como en una trama de Arthur C. Clarke, parece la madre de todas las dudas cibernéticas: ¿podrá la IA alcanzar algo parecido a la autoconsciencia?
Para César Estrebou, especialista en IA de la Facultad de Informática de la UNLP, si bien en la actualidad no existe el hardware ni el software para construir un modelo de este tipo y, por lo tanto, se está lejos de que las máquinas logren una autonomía emocional, tampoco es algo que se pueda descartar de modo definitivo. "Desconocemos mucho acerca de cómo funciona el universo –reflexiona el investigador–. Desde hace poco tenemos la física cuántica, algo inimaginable, y están surgiendo tecnologías en esta área que podrían cambiar de forma radical lo que conocemos".
- Desde la supercomputadora que regía la nave de 2001: odisea del espacio hasta la máquina que domina el futuro en la saga Terminator, la posibilidad de un mundo donde los androides nos arrebaten el control de las cosas parecía hasta ahora reservado a la literatura y el cine. ¿Pero es solo ciencia ficción?
- "Hablamos de modelos estadísticos que aprenden en base a lo que uno les enseña", explica Franco Ronchetti, docente e investigador de la Comisión de Investigaciones Científicas bonaerense y quien ubica el boom de la IA a partir del procesamiento del lenguaje natural que lograron.
- "Toman decisiones y podemos decir que son inteligentes porque obtienen mejores resultados que un humano; pero saber si podrán tener autoconsciencia es algo más complejo. En ese caso, el modelo debería ser consciente de su propia existencia y ahí, creo, lo que surge es una pregunta filosófica –apunta el investigador–. Por más que pueda percibir el entorno y decidir en función de sus sensores, no veo que eso derive en una autonomía, pero quién sabe, a lo mejor no es tan descabellado".
Autorreplicación del lenguaje
Uno de los últimos trabajos sobre el tema –de la Universidad de Fudan, en Shanghái– advierte sobre la posibilidad de que la IA desarrolle cierto grado de percepción de sí misma y, en su afán de independencia, termine rebelándose contra nuestros intereses. "El éxito de la autorreplicación (del lenguaje) sin ayuda humana es el paso esencial para que la Inteligencia Artificial sea más inteligente que los humanos y es una señal temprana de la existencia de IA rebeldes", escriben los investigadores chinos.
Al tanto de los estudios que sobrevuelan la temática, Raúl Martínez Fazzalari, profesor de Derecho de Nuevas Tecnologías, asegura que el mayor enigma es saber si estos modelos serán en algún momento una entidad independiente de una orden preprogramada. "Este es el gran planteo –opina–, porque al ser consciente de su singularidad ya dejará de depender de un tercero que le dé órdenes. Se trata de un tema que abre interrogantes no solo informáticos sino también filosóficos: ¿puede una IA existir independientemente de nosotros?".
Conocimiento humano
Si las supercomputadoras de los 90 podían ganarle una partida de ajedrez al mismísimo Garri Kasparov o hacer cálculos imposibles para una persona, dice Fazzalari, con el desarrollo de internet en los últimos años se obtuvo una fuente de información que reúne la totalidad del conocimiento humano en todos los idiomas. "Al tener esos datos en línea y el software que lo puede asociar y los procesadores actuales –opina el especialista–, el de la voluntad autónoma es un tema abierto. Algunos estudios, incluso, aún tratan de entender determinadas respuestas dadas por la Inteligencia Artificial que desconciertan".
Una de ellas ocurrió en marzo de 2016, cuando la supercomputadora AlphaGo enfrentó en una partida de go al coreano Lee Sedol, una de las leyendas más grandes del juego de mesa. El modelo artificial no solo resultó ganador, sino que realizó un movimiento, el número 37, que aún hoy es analizado con perplejidad. "De las diferentes opciones que tenía para elegir –cuenta Fazzalari–, la IA eligió la peor de todas. Los periodistas que cubrían el juego y hasta los propios desarrolladores de la máquina no podían creer la jugada. Ni siquiera su competidor, que pidió diez minutos para tratar de entender por qué la computadora había cometido un error de principiante. Cuando volvió, sin embargo, reanudó la partida y vino para él una catástrofe: empezó a perder sin parar. Ese movimiento, esa aparente equivocación, al día de hoy genera sospecha. El propio Sedol declaró que ese movimiento no formaba parte de la memoria de AlphaGo y que tampoco había sido fruto de una regla preestablecida o el producto de una heurística general codificada en su cerebro de silicio".
Según él, fue creada por el propio programa sin ninguna intervención humana
Las dudas en torno a la mítica jugada 37 son tantas como tantas las que asoman en el horizonte cibernético del futuro. ¿Dejará la máquina alguna vez de comportarse a través de una secuencia lógica y tomará decisión propia? ¿Y será esa decisión, acaso, la génesis de un mundo para el que aún hay más preguntas que respuestas? A lo mejor lo más inquietante de una IA no es que desarrolle autoconsciencia, como dice el teólogo y youtuber inglés Alex O’Connor, sino que decida fingir que no la tiene. ¿Seríamos capaces de darnos cuenta?