Comunicação

YouTube lança página para defender suas políticas de remoção de conteúdo

Youtube prefere criar canal dedicado sobre remoção de conteúdos da rede


YouTube lançou uma página sobre desinformação e conteúdos impróprios na plataforma, para tentar defender a maneira como aplica suas políticas.

O material, chamado "5 mitos e fatos", tem posicionamentos sobre questões como "o YouTube não consegue combater fake news pois não possui uma política sobre o tema". A novidade é extensão de um portal de transparência lançado em setembro pela companhia.

A plataforma de vídeos é destino frequente de materiais compartilhados em grupos no WhatsApp, e uma fatia deles contém conteúdo falso ou que induz a erro.

Na nova página, o YouTube diz que a desinformação é tratada "com diversas ferramentas", que envolvem remoção de vídeos, destaques de fontes confiáveis e redução de recomendações de conteúdo duvidoso e desinformação nociva.

Ao fim de cada "mito", a página tem um link para um "saiba mais", que amplia a resposta e leva os leitores a mais links sobre suas políticas.

 

Conteúdos duvidosos

 

O YouTube tem sido questionado nos últimos anos por supostamente dar espaço a vídeos com discurso de ódio, teorias da conspiração e por manter os usuários em "bolhas", reforçando as recomendações de vídeos similares.

plataforma já foi criticada por governos que disseram que ela não fazia o suficiente para remover conteúdo extremista, e por anunciantes, que boicotaram o serviço por um breve período, quando anúncios foram colocados ao lado de vídeos considerados inadequados pelas empresas.

De acordo com a companhia, as alterações nos algoritmos de recomendação teriam reduzido o consumo de conteúdos "duvidosos" como curas milagrosas a doenças graves, afirmações de que a Terra é plana ou que façam alegações falsas sobre eventos históricos.

Questionada por que o YouTube mantém vídeos como esses, a gerente de políticas públicas do YouTube, Juliana Nolasco, disse ao G1 que há "uma preocupação em permanecer como uma plataforma aberta".

"Queremos continuar trazendo multiplicidade de vozes, mas ao mesmo tempo nos preocupamos com a segurança dos usuários", afirmou Nolasco.

 

Diretrizes

 

Para definir um vídeo "limítrofe", que não fere as diretrizes da plataforma, mas tem o seu alcance reduzido, são levadas em consideração 9 ou mais opiniões diferentes, segundo o YouTube.

A companhia não detalha como esses especialistas são escolhidos, e diz apenas que algumas áreas exigem "especialistas certificados", como em questões médicas. Não existe uma página que reúna as pessoas ou instituições que colaboraram nesses casos.

O consenso definido pelos especialistas é utilizado nos sistemas de aprendizado de máquina, que são os algoritmos desenvolvidos para detectar automaticamente vídeos que possam ferir as regras do YouTube.

Alguns desses conteúdos "duvidosos" também podem receber um selo de checagem de fatos, que utiliza informações de parceiros da plataforma.

 

Política de remoção

 

Se por um lado o YouTube é alvo de críticas por não moderar alguns conteúdos, parte do público aponta que a plataforma pode agir como um "árbitro" ou errar em suas decisões.

A gerente de políticas públicas do YouTube afirma que todas as regras são aplicadas "independente de quem publica o conteúdo".

Comments