A inteligência artificial (IA) está avançando a passos largos, e com esse progresso vêm riscos significativos. Desde golpes telefônicos em massa até imagens falsas de celebridades usadas em campanhas de assédio, esta tecnologia está se mostrando uma ferramenta poderosa e, às vezes, perigosa. Por isso, a Califórnia está agindo com um projeto de lei conhecido como SB 1047, que busca regulamentar os modelos avançados de IA.
SB 1047: A regulamentação mais rigorosa dos EUA?
No final de agosto, o projeto de lei SB 1047 foi aprovado pela Assembleia e pelo Senado da Califórnia, e agora está nas mãos do governador Gavin Newsom. Enquanto a União Europeia e outros governos têm debatido durante anos como regular a inteligência artificial, a SB 1047 poderia estabelecer o quadro mais rigoroso nos Estados Unidos.
Clique aqui para receber as notícias de ciência e tecnologia pelo WhatsApp
No entanto, o projeto tem gerado controvérsia. Os críticos temem que esta lei represente uma ameaça para as startups, os desenvolvedores de código aberto e até mesmo para a inovação acadêmica. Por outro lado, os defensores acreditam que é uma medida essencial para mitigar os riscos de uma tecnologia que pode causar danos significativos.
O confronto no Vale do Silício
A versão original do SB 1047, apresentada pelo senador Scott Wiener, era ambiciosa e buscava estabelecer regras rígidas para os desenvolvedores de IA, incluindo testes de segurança rigorosos e a implementação de um "interruptor de desligamento" para interromper modelos não autorizados. Empresas como OpenAI e Anthropic se opuseram desde o início, argumentando que o projeto poderia sufocar a inovação.
Um dos críticos mais vocais tem sido Andrew Ng, co-fundador da Coursera e pioneiro em IA, que destacou que a regulação não deve se concentrar na tecnologia em si, mas sim em suas aplicações. Segundo Ng, o risco da IA depende mais do uso do que da própria tecnologia.
Uma travagem à inovação?
Muitos especialistas temem que a SB 1047 possa frear o progresso da IA nos Estados Unidos, especialmente em relação a concorrentes internacionais como China e Rússia. Entre eles, figuras como Zoe Lofgren e Nancy Pelosi expressaram sua preocupação de que a lei esteja focada em cenários fictícios e catastróficos de IA.
Além disso, a comunidade de código aberto também levantou sua voz, destacando que a colaboração aberta tem sido um motor chave de inovação. Regular o código aberto no contexto da IA apresenta desafios únicos que ainda não estão bem definidos.
Um projeto de lei suavizado, mas não sem impacto
Diante de tantas críticas, a SB 1047 sofreu alterações significativas. Algumas das regulamentações mais rigorosas foram eliminadas, como a criação de um órgão regulador e a possibilidade de o procurador-geral processar os desenvolvedores por questões de segurança. Em vez disso, os desenvolvedores apenas precisarão fazer ‘declarações’ públicas sobre suas práticas de segurança.
Apesar dessas modificações, muitos acreditam que o projeto ainda tem valor. Mesmo em sua versão enfraquecida, poderia incentivar as empresas a levarem a segurança de seus modelos mais a sério. Gary Marcus, professor de psicologia e neurociência, afirma que qualquer passo em direção à alinhamento da IA com valores humanos é positivo.
O delicado equilíbrio de Gavin Newsom
Agora, a decisão final está nas mãos do governador Gavin Newsom, que tem permanecido em silêncio sobre a SB 1047. Com profundas conexões entre o Vale do Silício e a política da Califórnia, Newsom enfrenta pressões de todos os lados. Por um lado, a regulação da IA poderia custar-lhe o apoio de importantes doadores do setor tecnológico. Por outro lado, a falta de regulação poderia expor a população a riscos crescentes associados à IA.
Newsom tem até setembro para decidir o destino da SB 1047. Sua decisão pode marcar um antes e um depois na indústria de IA, não apenas na Califórnia, mas em todo o mundo.