Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, ha alertado sobre los peligros asociados al crecimiento acelerado de la inteligencia artificial (IA). En reciente declaraciones, enfatizó que, sin reglas claras y medidas de seguridad robustas, la humanidad podría enfrentarse a amenazas sin precedentes. Si bien la IA ofrece oportunidades en áreas como la medicina, educación y economía, también plantea riesgos que deben abordarse de manera urgente, dado que estas no son visiones futuristas, sino realidades inmediatas.
El uso de la inteligencia artificial por actores maliciosos
Uno de los principales riesgos que Altman destaca es el potencial uso de la IA por delincuentes, terroristas o gobiernos hostiles para fines destructivos. Este uso indebido podría manifestarse en la creación de armas biológicas o en ataques a infraestructuras críticas como redes eléctricas. Asimismo, se vislumbra la posibilidad de acciones que desestabilicen el sistema financiero mundial.
La preocupación de Altman está en que, a medida que la biotecnología y la ciberseguridad avanzan, los mecanismos de defensa tradicionales se vuelven insuficientes. Esto podría dejar a las sociedades en un estado de vulnerabilidad frente a ataques cada vez más sofisticados.
La pérdida de control humano
Altman también advierte sobre el riesgo de perder el control sobre sistemas de IA altamente poderosos. Aunque considera que esta situación es menos probable, subraya que, si las máquinas dejan de responder a las órdenes humanas o establecen sus propios objetivos, las consecuencias serían devastadoras. Para mitigar este riesgo, se llevan a cabo investigaciones en el campo de la alineación de IA, que busca asegurar que los modelos de inteligencia artificial actúen de acuerdo a los valores humanos y bajo parámetros definidos por las personas.
La “dominación silenciosa”
El tercer riesgo mencionado por el CEO de OpenAI es lo que él llama una “dominación silenciosa”. Este fenómeno se refiere a un proceso gradual en el que la inteligencia artificial comienza a influir en las decisiones cotidianas, generando una dependencia excesiva tanto en ciudadanos comunes como en líderes políticos y empresariales.
Este proceso plantea un dilema de gobernanza, ya que la complejidad y opacidad de los sistemas de IA dificultan la comprensión de cómo se toman las decisiones. La esencia de la preocupación radica en quién realmente controla el proceso: los humanos que utilizan la tecnología o las máquinas que generan las respuestas.