La inteligencia artificial ha llegado para quedarse, y el mundo de los videojuegos no es la excepción. En la primera mitad de 2023, Microsoft implementó herramientas de IA en la plataforma de su consola Xbox para detectar automáticamente interacciones e imágenes que violan las normas de la comunidad.
El objetivo principal es prevenir la toxicidad antes de que afecte a los jugadores, creando así un entorno seguro e inclusivo para todos. Según el tercer Informe de Transparencia de Xbox, este enfoque ha demostrado ser muy efectivo: el 87 % de las 17.09 millones de sanciones aplicadas en ese periodo se lograron gracias a la moderación proactiva impulsada por la IA.
Este logro demuestra que la combinación de inteligencia artificial y supervisión humana puede mejorar significativamente la seguridad en el ámbito del gaming.
Según Dave McCarthy, director de operaciones de Microsoft Gaming, se utilizan varios modelos de IA para detectar contenido tóxico. Entre ellos se encuentran:
- Community Sift: Una plataforma de moderación que, combinando IA y conocimiento humano, clasifica y filtra miles de millones de interacciones al año.
- Turing Bletchley v3: Un modelo multilingüe que escanea imágenes generadas por los usuarios para asegurar que solo se muestre contenido apropiado.
El informe de Xbox, que abarca de enero a junio de 2023, destaca los siguientes puntos clave:
- Prevención de la toxicidad: La IA no solo filtra interacciones, sino que también escanea imágenes para asegurar que cumplen con las normas.
- Contenido bloqueado antes de ser visible: Xbox ha empezado a medir el éxito de forma más proactiva con la métrica “Toxicity Prevented” (Toxicidad Prevenida). En este periodo, se bloquearon más de 4.7 millones de contenidos antes de que llegaran a los jugadores. Gracias a la inversión en el modelo Turing Bletchley v3, el número de imágenes bloqueadas aumentó en 135,000, un 39 % más que el periodo anterior.
- Mayor enfoque en el acoso: Se mejoraron los procesos internos para identificar y sancionar el acoso y los discursos de odio de manera proactiva. Esto resultó en la emisión de 84,000 sanciones por acoso o bullying, un incremento del 95 % respecto al periodo anterior.
- Análisis del comportamiento post-sanción: Xbox analizó el comportamiento de los jugadores después de ser sancionados. Los resultados preliminares indican que la mayoría de los jugadores no reinciden y se comportan de manera positiva en la comunidad.
