A pesar de las predicciones optimistas de figuras como Elon Musk, que aseguran que en menos de cinco años la inteligencia artificial (IA) superará a la mente humana, un reciente experimento ha puesto de manifiesto las limitaciones existentes de estas tecnologías. Aunque las herramientas de IA generativa se han integrado en diversas facetas de la vida cotidiana, desde responder preguntas hasta asistir en tareas creativas, los resultados de este test sugieren que aún están lejos de alcanzar un verdadero entendimiento.
Un experimento revelador
El ensayo, llevado a cabo por Mind Prison, consistió en interrogar a los chatbots más avanzados sobre un episodio de La isla de Gilligan que aborda la lectura de la mente. La respuesta correcta era Seer Gilligan, pero ninguno de los modelos interrogados logró proporcionarla de manera exacta. Algunos, como Opus y Llama 3, incluso afirmaron que no existía tal episodio, mientras que otros, como GPT-4 y Gemini 1.5, ofrecieron información incorrecta o incluso inventada, un fenómeno conocido como alucinación de IA.
Limitaciones de la inteligencia artificial
Los errores cometidos por estos modelos se deben a su funcionamiento basado en patrones de datos, sin un verdadero entendimiento ni verificación de la información. Aunque son capaces de generar respuestas que parecen plausibles, pueden presentar información falsa o inexacta, evidenciando sus limitaciones cuando las consultas requieren conocimiento específico que no está en su base de datos.
Respuestas erróneas y sorpresas inesperadas
Durante el test, GPT-4 identificó erróneamente el episodio como Ring Around Gilligan, mientras que Gemini 1.5 mencionó The Mind Reader. En otro ejercicio, se pidió a los modelos elegir un número entre 1 y 100, y curiosamente, todos coincidieron en el 42, cifra famosa en la cultura popular gracias a The Hitchhiker’s Guide to the Galaxy de Douglas Adams. Este resultado resalta que la IA carece de conciencia sobre su propio conocimiento, limitándose a combinar datos según sus entrenamientos.
Reflexiones sobre el futuro de la IA
Mientras que voces como la de Musk advierten sobre un posible riesgo del 20% en un futuro donde las máquinas puedan reflexionar y tomar decisiones autónomamente, otros expertos de Silicon Valley varían sus estimaciones entre el 5% y el 50%. Hasta que ese futuro se materialice, episodios como los observados en este experimento refuerzan la idea de que, a pesar de su creciente sofisticación, la inteligencia artificial todavía no puede responderlo todo.