Ciência e Tecnologia

Dois ex-membros da OpenAI fundaram uma empresa durante a crise com Sam Altman

Eles procuram dar uma nova abordagem ao uso da inteligência artificial

Todos nos recordamos de um evento que marcou a indústria tecnológica - não por uma boa razão - em novembro de 2023: A comunidade de inteligência artificial (IA) foi abalada por uma controvérsia inesperada envolvendo OpenAI, uma das organizações de pesquisa em IA mais renomadas do mundo, e seu ex-CEO, Sam Altman. Embora os detalhes exatos do conflito ainda não tenham sido totalmente revelados, diversos relatórios e vazamentos apontam para uma série de fatores-chave:

Suspeitava-se que Altman, além de ser CEO da OpenAI, tinha investimentos em empresas privadas de IA que poderiam competir com a própria OpenAI. Isso levantou dúvidas sobre sua imparcialidade e sua capacidade de liderar a organização de forma ética. Por outro lado, Altman teria usado táticas de manipulação para influenciar as decisões do conselho de administração e teria exibido um comportamento agressivo em relação a alguns funcionários.

Mas acima de tudo, havia discordâncias entre Altman e outros membros do conselho da OpenAI sobre a direção estratégica da organização. Alguns argumentavam que Altman priorizava o desenvolvimento de tecnologias de IA de alto risco, enquanto outros defendiam uma abordagem mais cautelosa e focada na segurança e ética.

Publicidad

A resposta de dois ex-OpenAI

Mas algo floresceu: Ilya Sutskever, co-fundador da OpenAI, a partir desta situação lançou sua nova empresa, Safe Superintelligence (SSI), com o ambicioso objetivo de desenvolver inteligência artificial superinteligente segura. O nascimento da SSI é um marco na comunidade de IA, uma vez que surge das cinzas do debate interno que levou à saída de Sutskever da OpenAI.

Sutskever e outros pesquisadores como Jan Leike haviam expressado sua preocupação com a priorização de "produtos brilhantes" em detrimento da segurança na OpenAI, o que eventualmente levou à sua saída.

SSI diferencia-se de outras empresas de IA pelo seu foco principal na segurança. Sua missão é desenvolver sistemas de IA superinteligentes que sejam benéficos e seguros para a humanidade, evitando possíveis consequências catastróficas.

O desafio da superinteligência segura: Criar uma IA superinteligente segura é uma tarefa complexa que envolve superar vários obstáculos:

  • Problema de alinhamento: Garantir que os sistemas de IA atuem de acordo com os valores humanos.
  • Escalabilidade da segurança: Desenvolver métodos de segurança que possam se adaptar a sistemas de IA cada vez mais complexos.
  • Equilíbrio entre velocidade e segurança: Avançar no desenvolvimento da IA sem comprometer a segurança.

Apesar das dúvidas que alguns analistas expressaram sobre o conceito de "superinteligência segura", o lançamento do SSI é um sinal positivo do compromisso de alguns pesquisadores com o desenvolvimento responsável da IA.

Atração de talento e financiamento

SSI procura atrair pesquisadores com forte interesse no desenvolvimento seguro de IA, e seu sucesso dependerá em grande parte do financiamento que receber e dos parceiros com os quais se associar.

A entrada da SSI no cenário da IA intensifica a competição para desenvolver sistemas de IA seguros e confiáveis. Resta saber quais empresas liderarão essa corrida e qual impacto terão seus avanços no futuro da humanidade.

Publicidad

SSI se apresenta como um ator chave na busca de um futuro de IA seguro e benéfico para todos.

Siga-nos no:Google News

Conteúdo patrocinado

Últimas Notícias