Activision faz parceria com Modulate para combater em

blog

LarLar / blog / Activision faz parceria com Modulate para combater em

Jun 21, 2023

Activision faz parceria com Modulate para combater em

ATUALIZADO 12:40 EDT / 31 DE AGOSTO DE 2023 por Kyt Dotson A Activision Blizzard Inc. está assumindo um papel mais forte no tratamento da toxicidade do chat de voz em seus jogos com uma parceria com a Modulate, desenvolvedora de

ATUALIZADO 12:40 EDT / 31 DE AGOSTO DE 2023

por Kyt Dotson

A Activision Blizzard Inc. está assumindo um papel mais forte no tratamento da toxicidade do chat de voz em seus jogos com uma parceria com a Modulate, desenvolvedora de tecnologia de voz de aprendizado de máquina que pode avaliar a segurança dos chats online.

A nova tecnologia, anunciada na quarta-feira, será implantada na América do Norte nos títulos de tiro em primeira pessoa da Activision “Call of Duty: Modern Warfare II” e “Call of Duty: Warzone”. “Call of Duty” é um dos títulos mais populares da Activision e “Modern Warfare II” foi o lançamento mais vendido da empresa em seu primeiro fim de semana. Ele gerou mais de US$ 800 milhões em receita em apenas três dias durante seu lançamento em novembro de 2022, atingindo um pico de contagem de jogadores simultâneos de 169.000 jogadores apenas na plataforma Steam da Valve Corp.

As plataformas de jogos online têm frequentemente lutado com o que poderia ser denominado como “comportamento tóxico” no bate-papo de jogos online, tanto por texto quanto por voz, onde os jogadores abusam uns dos outros. Isto pode acontecer através de cyberbullying, discurso de ódio, linguagem discriminatória e assédio. Pode surgir especialmente em meio à alta intensidade e adrenalina da competição.

O novo sistema de moderação de bate-papo por voz usará o ToxMod, um sistema da Modulate alimentado por inteligência artificial que pode identificar comportamentos tóxicos em tempo real e auxiliar na sua aplicação. A tecnologia ajudará a equipe antitoxicidade da Activision, que já rastreia bate-papos de texto e voz, filtrando 14 idiomas diferentes para bate-papo no jogo.

De acordo com Modulate, o ToxMod opera aplicando aprendizado de máquina avançado para sinalizar o bate-papo por voz, analisando as nuances da conversa para que possa diferenciar entre “f- sim!” e “Foda-se!” bem como as emoções do usuário, observando o contexto conversacional e as reações de outros jogadores.

Além de ajudar a detectar discurso tóxico e bullying, a empresa também adicionou recentemente “categorias de risco”, que permitem ao algoritmo de aprendizagem automática detectar tendências de comportamento ao longo do tempo que sugerem um risco significativo de radicalização violenta ou de aliciamento infantil.

As novas categorias de risco abrangem escalas de tempo maiores do que a moderação em tempo real que utiliza declarações simples e tenta usar padrões de intenção para sinalizar comportamentos. Dessa forma, os moderadores obtêm uma visão holística do comportamento dos jogadores em uma linha do tempo para ver se há algo com que eles precisem lidar em sua comunidade.

“Nunca há lugar para comportamento perturbador ou assédio nos jogos”, disse Michael Vance, diretor de tecnologia da Activision. “Enfrentar particularmente o chat de voz perturbador tem sido um desafio extraordinário nos jogos. Este é um passo crítico para criar e manter uma experiência divertida, justa e acolhedora para todos os jogadores.”

Desenvolvedores de jogos como a Riot Games Inc., editora do jogo de esportes eletrônicos altamente competitivo “League of Legends”, e outros há muito enfrentam toxicidade em seus jogos e lutam para conter o comportamento no chat. Para ajudar a combater esses comportamentos, a Riot e a Ubisoft Entertainment SA, uma editora francesa de videogames com um grande número de jogos, formaram uma parceria para construir um banco de dados para moderação alimentada por IA para ajudar a lidar com linguagem e comportamento tóxicos.

“Este é um grande passo em frente no apoio a uma comunidade de jogadores do tamanho e escala de ‘Call of Duty’ e reforça ainda mais o compromisso contínuo da Activision de liderar este esforço”, disse Mike Pappas, CEO da Modulate.

A Activision se vangloriou de que, desde o lançamento de “Modern Warfare II”, “a atual equipe de moderação de Call of Duty proibiu o bate-papo por voz ou texto em mais de 1 milhão de contas usando sua tecnologia atual. Pela pesquisa da própria empresa, quando a filtragem é combinada com a denúncia, 20% dos jogadores tóxicos não reincidem após receberem o primeiro aviso. Aqueles que o fizerem sofrerão penalidades adicionais, como restrições de bate-papo por texto e voz ou perda temporária de privilégios de conta.