¿Recuerdas todas esas historias distópicas en las que todo lo que la gente dice y hace es monitoreado de cerca? Call of Duty ahora tiene una nueva IA que monitorea todo lo que dices. Llamado ToxMod, el nuevo sistema ya se implementó en Call of Duty: Modern Warfare 2 y Warzone en Estados Unidos, y se lanzará a nivel mundial para coincidir con Call of Duty: Modern Warfare 3 cuando se lance en noviembre.

El nuevo sistema nace de una asociación entre Activision y Modulate y tiene como objetivo «identificar en tiempo real y combatir el discurso tóxico, incluido el discurso de odio, el lenguaje discriminatorio, el acoso y más». Actualmente, solo se admite el inglés, pero se agregarán más idiomas.

Si este sistema hubiera estado implementado cuando jugaba el Call of Duty 4: Modern Warfare original, casi todos habrían sido baneados inmediatamente y posiblemente habrían sido incluidos en algún tipo de lista de vigilancia. Las malas palabras fueron… bastante devastadoras, en aquel entonces.

Presumiblemente, la IA no está a cargo de imponer suspensiones y, en cambio, señalará lo que cree que es un discurso «tóxico» para que lo examinen humanos reales. El discurso tóxico es, por supuesto, un concepto un tanto nebuloso en el mejor de los casos.

Será interesante ver exactamente qué señala el sistema y si tiene alguna capacidad para manejar la forma en que las palabras pueden significar cosas enormemente diferentes en diferentes países. Aquí en Escocia, por ejemplo, llamar a alguien bastardo total puede ser muy amigable, al igual que llamar a alguien cabrón. Somos un grupo extraño y decir malas palabras es básicamente parte de nuestro léxico cotidiano. Eso sí, hay una diferencia entre decir malas palabras y maldecir a alguien y a su madre.

El punto es que es muy fácil que la IA tome un fragmento de una oración fuera de contexto y lo marque. Si bien el aumento en la progresión de la IA es sorprendente, la tecnología aún está en su infancia y es propensa a ser inconsistente y, a veces, francamente estúpida.

Por otro lado, quizás el nuevo sistema funcione muy bien. Según Activision, sus esfuerzos anteriores han funcionado bastante bien: “Al examinar los datos centrados en las medidas de cumplimiento anunciadas previamente, el 20% de los jugadores no reincidieron después de recibir una primera advertencia. Aquellos que reincidieron se enfrentaron a sanciones en la cuenta, que incluyen, entre otras, restricciones de funciones (como prohibiciones de chat de voz y texto) y restricciones temporales de la cuenta. Este impacto positivo se alinea con nuestra estrategia de trabajar con los jugadores para brindarles comentarios claros sobre su comportamiento”.

Ciertamente también se han cometido errores, como cuando el software anti-trampas del juego comenzó a señalar a las personas por hacer trampa porque no le gustaba el software en segundo plano que estaban usando.

Pero, ¿qué pasa si el plan de Modulate es en realidad desarrollar la última IA idiota que esté entrenada para lanzar diatribas llenas de odio y enojo? Seguramente no habría mejor campo de entrenamiento que Call of Duty.

Artículo anteriorGira el mando: ¿el pase de temporada de Mario + Rabbids Sparks of Hope pone estrellas en los ojos de la gente?
Artículo siguienteGeografía ‘Worldle’ País Respuesta hoy 589: Juego de mapas 2 de septiembre de 2023 Solución
Elisenda Montero
Enamorada de la tecnología. Apasionada de la velocidad que la información puede adquirir en este mundo cambiante. Actualmente residiendo en Barcelona.