10 de julho de 2021
O algoritmo do YouTube várias vezes recomenda vídeos que violam as políticas de conteúdo do mesmo, contribuindo para a desinformação e várias outras coisas, afirma um estudo feito pela Fundação Mozilla divulgado na quarta-feira (7).
Como melhorar isso?
No estudo, a Mozilla apresentou também sugestões para melhorar o algoritmo, veja abaixo:
- As plataformas devem publicar relatórios de transparência frequentes e completos que incluam informações sobre seus algoritmos de recomendação;
- As plataformas devem fornecer às pessoas a opção de não receber recomendações personalizadas;
- As plataformas devem criar sistemas de gerenciamento de risco dedicados à recomendação de IA;
- Os formuladores de políticas devem promulgar leis que obriguem a transparência do sistema de IA e protejam pesquisadores independentes.
De acordo com o líder da pesquisa, Brandi Geurkink, o algoritmo do YouTube "é projetado de forma a prejudicar e desinformar as pessoas". Ele diz que essas descobertas são apenas a "ponta do iceberg" e espera que elas levem a Google a ser mais transparente em relação ao YouTube.
Resposta do YouTube
O objetivo do nosso sistema de recomendação é conectar os espectadores com o conteúdo que os agrada e, por dia, mais de 200 milhões de vídeos são recomendados apenas na nossa página inicial. Mais de 80 bilhões de informações são usadas para calibrar nossos sistemas, incluindo dados de pesquisas com usuários sobre o que eles querem assistir. Trabalhamos constantemente para melhorar a experiência no YouTube e, somente no ano passado, implementamos mais de 30 mudanças diferentes para reduzir as recomendações de conteúdo potencialmente prejudicial. Graças a essa mudança, o consumo de conteúdo que chega perto de violar nossas regras proveniente das nossas recomendações está agora significativamente abaixo de 1%.
— YouTube.
Fontes
- ((en)) Investigação da Mozilla: o algoritmo do YouTube recomenda vídeos que violam as próprias políticas da plataforma — Mozilla Foundation, 7 de Julho de 2021
- ((en)) YouTube recommends videos that violate the platform’s own policies, study finds — The Next Web, 7 de Julho de 2021
- ((en)) YouTube’s recommender AI still a horror show, finds major crowdsourced study — TechCrunch, 7 de Julho de 2021
- YouTube recomenda videos que violam a sua propia politica de uso
. — Tecmundo, 8 de Julho de 2021
Esta página está arquivada e não é mais editável. |