Como criamos e aplicamos as nossas políticas
Criamos políticas de conteúdo rígidas para garantir que as críticas são baseadas em experiências do mundo real e para manter comentários irrelevantes e ofensivos fora dos perfis de empresas no Google.
À medida que o mundo evolui, também evoluem as nossas políticas e proteções. Isto ajuda-nos a proteger lugares e empresas de conteúdos que violem políticas e fora do âmbito do tópico quando há potencial para abusos. Por exemplo, quando governos e empresas começaram a exigir certificados de vacinação contra a COVID-19 para o acesso a determinados lugares, implementamos proteções extras para remover críticas no Google que criticam uma empresa pelas suas políticas de saúde e segurança ou por exigirem o certificado.
Uma vez escrita, a política transforma-se em material de treino – tanto para os nossos operadores como para os algoritmos de machine learning – para ajudar as nossas equipas na deteção de conteúdo que viola a política e, por fim, manter as críticas do Google úteis e autênticas.
A moderação das críticas com a ajuda de machine learning
Assim que alguém publica uma crítica, ela é enviada para o nosso sistema de moderação para garantir que a mesma não viola nenhuma das nossas políticas. Poderá pensar no nosso sistema de moderação como uma espécie de segurança que impede que pessoas não autorizadas entrem num prédio - mas, em vez disso, a nossa equipa está a impedir que um mau conteúdo seja publicado no Google.
Dado o volume de críticas que recebemos regularmente, descobrimos que precisamos tanto de uma compreensão diferenciada que os humanos proporcionam como da escala oferecida pelas máquinas para nos ajudar a moderar o conteúdo recebido. Ambos têm pontos fortes diferentes e por isso continuamos a investir tremendamente em ambos.
As máquinas são a nossa primeira linha de defesa porque são boas para identificar padrões. Estes padrões ajudam, geralmente, as nossas máquinas a determinar imediatamente se o conteúdo é legítimo, e a grande maioria do conteúdo falso e fraudulento é removido antes que alguém realmente o veja.
As nossas máquinas analisam as críticas de vários ângulos, tais como:
O conteúdo da crítica: ela contém conteúdo ofensivo ou fora do tópico?
A conta que deixou a crítica: a conta Google tem algum histórico de comportamento suspeito?
O lugar em si: houve atividade incomum – como uma abundância de críticas num curto período de tempo? Recentemente, teve a atenção das notícias ou redes sociais que motivariam as pessoas a deixar comentários fraudulentos?
Treinar uma máquina sobre a diferença entre conteúdo aceitável e aquele que viola as políticas é um equilíbrio delicado. Por exemplo, por vezes a palavra “gay” é usada como um termo depreciativo, e isso não é algo que toleramos nas críticas no Google. Mas se ensinarmos aos nossos modelos de machine learning que ele é usado apenas em discurso de ódio, podemos remover erradamente críticas que promovem um empresário gay ou um espaço seguro LGBTQ+. Os nossos operadores humanos executam regularmente testes de qualidade e completam treino adicional para remover o preconceito dos modelos de machine learning. Ao treinar minuciosamente os nossos modelos de todas as maneiras como certas palavras ou frases são usadas, melhoramos a nossa capacidade de detectar conteúdo que viole políticas e reduzimos a probabilidade de bloquear inadvertidamente uma publicação com críticas legítimas.
Se os nossos sistemas não detectarem violações de políticas, a crítica poderá ser publicada numa questão de segundos. Mas o nosso trabalho não termina quando a crítica é publicada. Os nossos sistemas continuam a analisar o conteúdo contribuído e a observar padrões questionáveis. Estes padrões podem ser qualquer coisa, desde um grupo de pessoas que deixam comentários no mesmo grupo de perfis de empresas até uma empresa ou local que recebe um número invulgarmente alto de críticas de 1 ou 5 estrelas num curto período de tempo.
Mantendo as críticas autênticas e confiáveis
Como qualquer outra plataforma que aceita contribuições de utilizadores, também precisamos de estar atentos aos nossos esforços para evitar que fraudes e abusos apareçam no Maps. Parte disso passa por tornar mais fácil para as pessoas que usam o Google Maps sinalizar qualquer crítica que viole as nossas políticas. Se acha que viu uma crítica que viola políticas do Google, recomendamos que a denuncie à nossa equipa. As empresas podem sinalizar aqui críticas nos seus perfis e os consumidores aqui.
A nossa equipa de operadores humanos trabalha 24 horas por dia para rever o conteúdo sinalizado. Quando encontramos comentários que violam as nossas políticas, removemo-los do Google e, em alguns casos, suspendemos a conta do utilizador e podemos até iniciar processos judiciais.
Além de analisar o conteúdo sinalizado, a nossa equipa trabalha proativamente para identificar possíveis riscos de abuso, o que reduz a probabilidade de ataques de abuso bem-sucedidos. Por exemplo, quando se aproxima um evento com um número significativo de seguidores, como uma eleição, implementamos proteções elevadas para os locais associados ao evento e outras empresas próximas que as pessoas podem procurar no Maps. Continuamos a monitorizar estes locais e empresas até que o risco de abuso diminua de modo a apoiar a nossa missão de publicar apenas críticas autênticas e confiáveis. O nosso investimento em analisar e entender como o conteúdo que recebemos pode ser alvo de abuso tem sido fundamental para nos mantermos um passo à frente dos chamados maus atores.
0 comments:
Enviar um comentário