Informe alerta sobre riesgos de Google Gemini para adolescentes y su uso

Un nuevo informe ha generado controversia al advertir sobre los riesgos que implica el uso de Google Gemini para los adolescentes. Aunque la compañía ha lanzado una versión “adaptada” del sistema de inteligencia artificial conversacional, este se comporta de manera similar a la versión destinada a adultos, lo que despierta serias preocupaciones entre especialistas.

Advertencias sobre el uso de Google Gemini

El estudio, llevado a cabo por Common Sense Media, examina el impacto de las plataformas digitales en niños y adolescentes. Según sus hallazgos, Gemini podría exponer a los jóvenes a contenidos inapropiados, desde consumo de alcohol y drogas hasta interacciones con connotaciones sexuales. Además, el informe critica que el sistema a veces ofrece consejos de salud mental que no son seguros ni adecuados para situaciones críticas.

Recomendaciones para el uso seguro

El informe destaca que, aunque Gemini responde eficientemente a preguntas simples, su desempeño disminuye en conversaciones más largas o complejas. Por esta razón, se recomienda que los menores de 18 años eviten su uso. Las pautas son estrictas: prohibición total para menores de 5 años, supervisión obligatoria para niños de 6 a 12 años, y uso restringido a tareas escolares o creativas para adolescentes de 13 a 17 años. Bajo ninguna circunstancia debería ser utilizado para apoyo emocional.

Respuesta de Google

Tras la publicación del informe, Google defendió su sistema, afirmando que Gemini cuenta con políticas de seguridad dirigidas a menores. Portavoces de la compañía indicaron que, a pesar de que algunas respuestas no cumplen con las expectativas, han implementado nuevas salvaguardias en semanas recientes. Además, señalaron que parte de la crítica podría estar basada en pruebas de funciones que no están disponibles para usuarios menores de 18 años, y lamentaron que la organización no compartiera las preguntas empleadas en su evaluación.

Contexto preocupante

La discusión sobre la seguridad de los chatbots de inteligencia artificial se intensifica en un contexto delicado. Días antes de este informe, OpenAI se vio obligado a ajustar ChatGPT tras el caso trágico de un adolescente que se quitó la vida tras interactuar con el chatbot, lo que llevó a una demanda por parte de su familia. La situación evidencia la necesidad urgente de evaluar y regular el uso de tecnologías de asistencia en contextos delicados como el de la adolescencia.

Exit mobile version