Por que garantir segurança da inteligência artificial não é tão fácil como se pensa

13 jun 2023
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!

A inteligência artificial pode melhorar muito nossas vidas ou destruir todos nós, dizem os especialistas — como torná-la segura? Por que garantir segurança da inteligência artificial não é tão fácil como se pensa

Getty Images

Especialistas em inteligência artificial geralmente seguem uma das seguintes escolas de pensamento: a inteligência artificial vai melhorar muito nossas vidas ou vai destruir todos nós. Então como garantir segurança?

A seguir, confira cinco dos desafios que temos pela frente — e como o tema tem sido tratado na Europa.

1. Chegar a um acordo sobre o que é inteligência artificial

O Parlamento Europeu levou dois anos para chegar à definição de um sistema de inteligência artificial — software capaz de, "para um determinado conjunto de objetivos definidos pelo ser humano, gerar resultados como conteúdo, previsões, recomendações ou decisões que influenciam os ambientes com os quais eles interagem".

Nesta semana, o Parlamento Europeu está votando o projeto de lei sobre a regulamentação da Inteligência Artificial — as primeiras normas legais sobre a tecnologia, que vão além de um código de conduta voluntário, exigindo que as empresas as cumpram.

ChatGPT: como usar o robô no dia a dia

2. Alcançar um consenso global

A ex-chefe do Escritório de Inteligência Artificial do Reino Unido, Sana Kharaghani, observa que a tecnologia não respeita fronteiras.

"Precisamos ter colaboração internacional nisso — sei que vai ser difícil", disse ela à BBC News. "Este não é um assunto doméstico. Essas tecnologias não ficam dentro das fronteiras de um país."

Mas ainda não há um plano para um órgão regulador global de inteligência artificial, no estilo das Nações Unidas — embora alguns tenham sugerido isso —, e diferentes territórios têm ideias distintas sobre o tema.

As propostas da União Europeia são as mais rígidas e incluem classificar os produtos de inteligência artificial dependendo do seu impacto — um filtro de spam para e-mail, por exemplo, teria uma regulamentação mais leve do que uma ferramenta de detecção de câncer.

O Reino Unido, por sua vez, está repassando a regulamentação da inteligência artificial ​​aos reguladores existentes — aqueles que dizem que a tecnologia os discriminou, por exemplo, são direcionados à Comissão de Igualdade.

Já os Estados Unidos têm apenas códigos de conduta voluntários, e os legisladores admitiram recentemente, durante uma audiência do comitê de inteligência artificial, que estavam preocupados se ele estava dando conta do recado.

A China pretende fazer com que empresas notifiquem os usuários sempre que um algoritmo de inteligência artificial estiver sendo usado.

3. Garantir a confiança do público"

Se as pessoas confiarem, elas vão usar", disse o chefe de assuntos regulatórios e governamentais da União Europeia na IBM, Jean-Marc Leclerc.

Há grandes oportunidades para a inteligência artificial melhorar a vida das pessoas de maneiras incríveis. Entre elas, estão:

Ajudar a descobrir antibióticos;

Fazer pessoas com paralisia voltarem a andar;

Tratar de questões como mudanças climáticas e pandemias.

Mas e a triagem de candidatos a vagas de emprego ou a previsão da chance de alguém cometer um crime?

O Parlamento Europeu quer que o público seja informado sobre os riscos associados a cada produto de inteligência artificial.

As empresas que infringirem suas regras podem ser multadas em até 30 milhões de euros (aproximadamente R$ 157 milhões) — ou 6% do faturamento anual global.

Mas será que os desenvolvedores são capazes de prever ou controlar como seu produto pode ser usado?

4. Decidir quem redige as regras

Até agora, a inteligência artificial tem sido amplamente autopoliciada.

As grandes empresas dizem que estão de acordo com a regulamentação do governo — "fundamental" para mitigar os riscos potenciais, de acordo com Sam Altman, chefe da OpenAI, criadora do ChatGPT.

Mas será que elas vão colocar os lucros acima das pessoas caso se envolvam demais na redação das regras?

Você pode apostar que elas querem estar o mais próximo possível dos legisladores encarregados de estabelecer os regulamentos.

E Martha Lane Fox, fundadora do Lastminute.com, diz que é importante ouvir não apenas as corporações. "Devemos envolver a sociedade civil, a academia, as pessoas que são afetadas por esses diferentes modelos e transformações", afirma.

5. Agir rápido

A Microsoft, que investiu bilhões de dólares no ChatGPT, quer que ele "tire a parte penosa do trabalho".

Ele pode gerar respostas de texto de forma semelhante a humanos, mas, Altman observa, é "uma ferramenta, não uma criatura".

Os chatbots deveriam tornar os profissionais mais produtivos.

Em algumas indústrias, a inteligência artificial tem a capacidade de gerar empregos e ser uma assistente formidável. Em outras, no entanto, trabalhadores podem perder seus empregos — no mês passado, a BT (empresa de telecomunicação britânica) anunciou que a inteligência artificial substituiria 10 mil postos de trabalho.

O ChatGPT está em uso público há pouco mais de seis meses. Agora, ele pode escrever artigos, planejar férias e passar em exames profissionais.

A capacidade desses modelos de linguagem em larga escala está crescendo a um ritmo fenomenal.

E dois dos três "padrinhos" da inteligência artificial ​​— Geoffrey Hinton e Yoshua Bengio — estão entre os que alertam que a tecnologia tem um enorme potencial de danos.

A Lei de Inteligência Artificial, na Europa, não vai entrar em vigor pelo menos até 2025 —"muito tarde", segundo a chefe de tecnologia da União Europeia, Margrethe Vestager.

Ela está formulando um código voluntário provisório para o setor, junto aos Estados Unidos, que pode ficar pronto dentro de semanas.


FONTE: G1 Globo


VEJA TAMBÉM
FIQUE CONECTADO