Casa Branca anuncia compromisso de empresas para tornar IA mais segura

21 jul 2023
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!

A Casa Branca anunciou nesta sexta-feira (21) que Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI aceitaram respeitar vários princípios no desenvolvimento da inteligência artificial (IA) para torná-la mais segura e transparente.

Essas empresas americanas pioneiras nesta tecnologia se comprometeram a trabalhar especialmente em sistemas de marcação de conteúdo criados com IA, a fim de reduzir os riscos de fraude e desinformação.

Prometeram testar seus programas interna e externamente antes de lançá-los, investir em cibersegurança e compartilhar informações relevantes sobre suas ferramentas com autoridades e pesquisadores, incluindo possíveis falhas.

Também deverão "desenvolver técnicas sólidas para garantir que os usuários saibam quando os conteúdos foram gerados por IA, como um sistema de marca d'água", afirmou um comunicado do governo dos Estados Unidos.

"Isso permitirá que a criatividade ligada à IA prospere, enquanto são reduzidos os perigos relacionados a fraudes ou enganos", acrescentou.

As fotos falsas ou os vídeos manipulados extremamente realistas, também conhecidos como "deepfakes", existem há anos, mas a IA generativa, capaz de produzir imagens com uma simples solicitação, gera temores de ondas de conteúdo desinformativo online.

Esses materiais podem ser usados para criar golpes muito convincentes ou até mesmo para manipular a opinião pública, uma perspectiva preocupante, sobretudo com a aproximação das eleições de 2024 nos Estados Unidos.

Até agora, as principais empresas envolvidas têm sido, em grande parte, relutantes em adicionar tais marcas aos conteúdos criados com suas ferramentas.

"É um assunto complicado", admitiu aos repórteres um alto funcionário da Casa Branca. A marca d'água "deve funcionar tanto para conteúdos visuais quanto sonoros", explicou. "Tecnicamente, deve ser robusta, mas também fácil de ser vista pelos usuários."

"É um bom primeiro passo para ajudar o público a identificar os conteúdos criados com IA", comentou James Steyer, fundador da ONG Common Sense Media.

"Mas esse tipo de marcação por si só não será suficiente para impedir que atores maliciosos utilizem esses conteúdos para fins nefastos ou ilegais", ponderou o especialista, mencionando a existência de programas piratas de IA generativa disponíveis na internet.

Em maio, a Casa Branca enfatizou o "dever moral" das empresas de inteligência artificial de garantir a segurança de seus produtos.

As tensões políticas no Congresso tornam improvável legislar sobre IA no momento, embora o governo tenha adiantado que está trabalhando em um decreto executivo.


FONTE: Estado de Minas


VEJA TAMBÉM