OpenAI reconoce errores en su función de etiquetado
En un giro inesperado, OpenAI ha decidido eliminar una controvertida función de su herramienta de inteligencia artificial debido a las numerosas críticas que recibió. Esta decisión, tomada tras un periodo de reflexión y análisis, pone de relieve la creciente preocupación por la ética en el uso de la inteligencia artificial.
Reconocimiento de errores
Initialmente, OpenAI defendió su diseño, afirmando que el etiquetado resultaba "suficientemente claro". Sin embargo, ante la creciente presión y las denuncias de los usuarios, la empresa dio un paso atrás. Dane Stuckey, representante de la compañía, admitió que la función "ofrecía demasiadas oportunidades para que las personas compartieran accidentalmente información que no pretendían". Ante esta situación, se optó por eliminar la función y también se iniciaron acciones para "eliminar el contenido indexado del motor de búsqueda relevante".
Reacciones de expertos
La controversia generó un fuerte descontento entre los especialistas en ética de la inteligencia artificial. Carissa Veliz, experta de la Universidad de Oxford, expresó su preocupación por el modus operandi de las empresas tecnológicas. Veliz argumentó que "las empresas utilizan a la población general como conejillos de indias", apuntando a la falta de responsabilidad en las decisiones de diseño. Con una crítica contundente, afirmó que "hacen algo, lo prueban con la población y ven si alguien se queja".
Este reconocimiento de errores y la posterior eliminación de la función resaltan la necesidad de una mayor responsabilidad ética en el desarrollo de tecnologías emergentes.