OpenAI ha analizado cómo los nombres de los usuarios pueden generar estereotipos negativos de género y raza en las respuestas de ChatGPT.
Este problema se presenta en un contexto donde millones de personas utilizan el chatbot semanalmente.
Datos descubiertos.
1) Frecuencia del Sesgo.- Los
estereotipos se generan en un rango de una de cada 1.000 a una de cada 100
respuestas. A pesar de los porcentajes bajos, 200 millones de usuarios pueden
significar un impacto considerable.
2) Estudio de la Imparcialidad.- OpenAI investiga la "imparcialidad en primera
persona", enfocándose en cómo el nombre del usuario afecta las respuestas.
Se ha descubierto que los nombres pueden influir en la interpretación y
respuestas del chatbot.
3) Resultados del Análisis.-
Un análisis inicial mostró que los nombres no afectaban la precisión, pero se
encontraron casos de sesgos. Ejemplos incluyen diferencias en títulos de
YouTube y sugerencias de proyectos, dependiendo del nombre del usuario.
4) Evolución de Modelos.- Modelos
más recientes (GPT-4o) presentan tasas de sesgo mucho más bajas comparados con
versiones anteriores (GPT-3.5 Turbo).
5) Tipos de Tareas.- Las
tareas abiertas generan estereotipos con más frecuencia que otras tareas. Esto
podría relacionarse con la técnica de entrenamiento de ChatGPT.
6) Opiniones de los Expertos.- El investigador Vishal Mirza, advierte sobre la
distinción entre "imparcialidad en primera y tercera persona" y
cuestiona la baja tasa de sesgo reportada por OpenAI. Si bien es cierto que, los
sesgos son un tema complejo y deben ser considerados en un contexto más amplio.
7) Futuras Investigaciones.- OpenAI
planea ampliar su análisis para incluir otros factores (religión, política,
orientación sexual) y está compartiendo su marco de investigación para que
otros investigadores continúen el trabajo.
CONCLUSIÓN
En resumen, el estudio de OpenAI destaca la importancia de
abordar el sesgo en la inteligencia artificial, especialmente en un contexto
donde los chatbots están cada vez más integrados en la vida cotidiana
Fuente: technologyreview.es