YouTube vai exibir conteúdo educando usuários sobre fake news
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!
Programa piloto será implementado no leste europeu para ajudar a combater desinformação em relação a refugiados ucranianos. YouTube vai exibir conteúdo educando usuários sobre fake news
Tom Gerken / BBC News O YouTube planeja exibir anúncios que educam as pessoas sobre técnicas de desinformação, após um experimento bem-sucedido da Universidade de Cambridge, no Reino Unido. Os pesquisadores descobriram que os vídeos melhoraram a capacidade das pessoas de reconhecer conteúdo manipulador. Eles serão exibidos na Eslováquia, República Tcheca e Polônia para combater fake news (notícias falsas) sobre refugiados ucranianos. O Google, empresa dona do YouTube, disse que as descobertas "emocionantes" mostram como a mídia social pode prevenir ativamente a disseminação de desinformação. A pesquisa foi baseada em uma área de estudo em desenvolvimento chamada "prebunking", que investiga como a desinformação pode ser desmascarada ao mostrar às pessoas como ela funciona — antes de serem expostas à mesma. No experimento, os anúncios foram exibidos para 5,4 milhões de pessoas, das quais 22 mil foram inquiridas posteriormente. Depois de assistir aos vídeos explicativos, os pesquisadores observaram: Uma melhoria na capacidade dos participantes de identificar técnicas de desinformação; Uma maior habilidade para discernir conteúdo confiável de não confiável; Uma capacidade melhor de decidir se deseja ou não compartilhar conteúdo. A pesquisa revisada por pares foi conduzida em conjunto com o Google e será publicada na revista científica Science Advances. Beth Goldberg, chefe de pesquisa e desenvolvimento da unidade Jigsaw do Google, que se concentra em combater os riscos de segurança online, classificou as descobertas como "emocionantes". "Demonstram que podemos expandir o prebunking para toda parte, usando anúncios como veículo", diz ela. Leia também: Como descobrir os dados que o Google salva sobre você? Samsung lança linha de celulares dobráveis no Brasil; veja preços Anatel apreende 2 mil produtos eletrônicos clandestinos da Shopee 'Tropos comuns' Jon Roozenbeek, principal autor do artigo, disse à BBC que a pesquisa é sobre "reduzir a probabilidade de alguém ser persuadido por desinformação". "Obviamente, você não pode prever todos os exemplos de desinformação que vão se tornar virais", afirma. "Mas o que você pode fazer é encontrar padrões e tropos comuns." "A ideia por trás deste estudo era: se encontrarmos alguns desses tropos, é possível tornar as pessoas mais resilientes contra eles, mesmo em relação a conteúdo que nunca viram antes?" Os cientistas inicialmente testaram os vídeos com membros do público sob condições controladas em um laboratório, antes de mostrá-los a milhões de usuários no YouTube, como parte de um estudo de campo mais amplo. A campanha antidesinformação e a campanha prebunking foram veiculadas no YouTube "como seriam no mundo real", explica Roozenbeek. "Nós as exibimos como anúncios do YouTube — assim como um anúncio sobre creme de barbear ou qualquer outra coisa... antes do vídeo ser reproduzido." Saiba também: ANDROID 13: confira as principais novidades do sistema do Google 'FOTO RANDOM': como fazer a colagem que é febre no Instagram e no TikTok Como funcionou o estudo Os anunciantes podem usar um recurso do YouTube chamado Brand Lift, que informa se como um anúncio aumentou o reconhecimento do produto. Os pesquisadores usaram este mesmo recurso para avaliar a capacidade das pessoas de identificar as técnicas de manipulação às quais haviam sido expostas. Em vez de uma pergunta sobre reconhecimento da marca, eles apresentaram o título de uma notícia às pessoas, que foram convidadas a lê-lo. Elas foram informadas então que o título continha manipulação, e solicitadas a identificar que tipo de técnica estava sendo usada. Além disso, havia um grupo de controle separado que não assistiu a nenhum vídeo, mas foi apresentado ao título e às perguntas correspondentes. "O que você espera é que o grupo que assistiu aos vídeos identifique corretamente com muito mais frequência do que o grupo de controle — e acabou sendo este o caso", diz Roozenbeek. "Em média, o grupo que viu os vídeos acertou cerca de 5% mais vezes do que o grupo de controle. Isso é altamente significativo." "Não parece muito — mas também é verdade que o grupo de controle nem sempre está errado. Eles também acertam várias perguntas." "Essa melhoria, mesmo no ambiente ruidoso do YouTube, mostra basicamente que você pode melhorar a capacidade das pessoas de reconhecer estas técnicas de desinformação — simplesmente mostrando a elas um anúncio." Leia mais: Quem foi Cláudia Celeste, atriz transexual homenageada por doodle do Google Por dentro do mundo secreto do comércio de nudes 'Soluções baseadas em evidências' A Universidade de Cambridge disse que este foi o primeiro estudo de campo no mundo real da "teoria da inoculação" em uma plataforma de mídia social. O professor Sander van der Linden, coautor do estudo, afirma que os resultados da pesquisa foram suficientes para levar adiante o conceito de inoculação e expandi-lo, para potencialmente atingir "centenas de milhões" de usuários de rede social. "Claramente é importante que as crianças aprendam a fazer leitura lateral e verificar a veracidade das fontes", diz ele. "Mas também precisamos de soluções que possam ser expandidas nas mídias sociais e interajam com seus algoritmos". Ele reconheceu o ceticismo em torno das empresas de tecnologia usarem este tipo de pesquisa e o ceticismo mais amplo em torno das colaborações entre indústria e academia. "Mas, no fim das contas, temos que encarar a realidade, pois as empresas de mídia social controlam grande parte do fluxo de informações online. Então, para proteger as pessoas, criamos soluções independentes e baseadas em evidências que empresas de mídia social podem realmente implementar em suas plataformas." "Para mim, deixar as empresas de mídia social entregues à própria sorte, não vai gerar o tipo de solução que capacita as pessoas a discernir a desinformação que se espalha em suas plataformas". Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62671970 Assista: Relembre o último voo do Concorde, em 2003 Como fazer o 'Foto Random', colagem de fotos popular no Instagram e TikTok Xiaomi apresenta robô humanoide que identifica sons e emoçõesFONTE: G1 Globo