Microsoft implementa IA para melhorar segurança em chats de voz, mas desafios persistem
Em uma postagem no blog para o Relatório de Transparência do Xbox, a Microsoft destacou seus avanços na promoção da segurança dos jogadores, compromisso com a transparência e sua abordagem progressiva ao usar IA que ajuda a identificar conteúdo prejudicial e garantir a segurança da comunidade de jogos online.
A IA é aplicada de duas maneiras principais: rotulagem automática e correspondência de padrões de imagem.
A rotulagem automática usa IA para identificar palavras ou frases prejudiciais nos relatos dos jogadores, permitindo que os moderadores da comunidade filtrem rapidamente os relatos falsos e se concentrem nos casos mais críticos. A correspondência de padrões de imagem utiliza técnicas de correspondência de imagens para identificar e remover rapidamente imagens prejudiciais e tóxicas.
Essas medidas seguem a introdução de um novo recurso de relatório de voz no ano passado, que permite aos jogadores do Xbox capturar clipes de voz no jogo e enviá-los para revisão pela Equipe de Segurança do Xbox. Desde o lançamento do recurso, foram capturadas 138 mil gravações de voz, com 98% dos jogadores que receberam uma punição apresentando comportamento melhorado e não reincidindo.
O Xbox também implementou um sistema de penalidade que combina mau comportamento com uma punição adequada. Desde o lançamento desse sistema, 88% dos jogadores que receberam uma advertência não reincidiram. Essas iniciativas são passos positivos, reduzindo o custo humano da revisão de conteúdo tóxico. No entanto, a toxicidade e a misoginia ainda são problemas generalizados no chat de voz em jogos.
Apesar dos avanços, a Microsoft demitiu sua equipe de ética e sociedade de IA no ano passado como parte de uma redução de 10.000 empregos, embora o Escritório de IA Responsável da empresa continue ativo, publicando seu guia Padrão de IA Responsável.
A Microsoft também anunciou uma parceria de co-desenvolvimento com a Inworld AI para fornecer aos estúdios do Xbox ferramentas de IA, como um copiloto de design e um mecanismo de tempo de execução de personagens. Essas ferramentas gerativas de IA têm sido recebidas com reações mistas pela comunidade de desenvolvedores.
Fonte: Eurogamer