William Agnew, investigador de la Universidad Carnegie Mellon, ha emitido una advertencia sobre los riesgos técnicos asociados con el uso de modelos de inteligencia artificial. Durante su intervención, Agnew explicó que estos sistemas son capaces de "regurgitar información", lo que implica que datos personales compartidos en conversaciones podrían filtrarse en respuestas destinadas a otros usuarios.
El dilema generacional
El CEO de OpenAI, Sam Altman, destacó las diferencias en el uso de ChatGPT según las edades de los usuarios. Las personas mayores tienden a utilizarlo como un sustituto de Google, mientras que los más jóvenes, de veinte y treinta años, lo ven como un consejero de vida. Los estudiantes universitarios lo adoptan como un sistema operativo personal, integrándolo con sus archivos y desarrollando estrategias sofisticadas para su uso.
Altman reveló que "hay jóvenes que dicen cosas como ‘no puedo tomar ninguna decisión en mi vida sin contarle todo a ChatGPT’". Esta dependencia extrema genera preocupación en el CEO, que considera que es "realmente malo y peligroso" que las decisiones vitales de las personas se basen en algoritmos.
Contexto legal y social
La advertencia de Altman cobra relevancia en un contexto donde la administración del expresidente Donald Trump busca reducir las regulaciones sobre inteligencia artificial. En este escenario, la protección de la privacidad de los usuarios se encuentra en un limbo legal, lo que podría tener consecuencias devastadoras para millones de personas que confían en estos sistemas para compartir sus secretos más íntimos.