Selecione seu Idioma

A tecnologia da OpenAI está prestes a ser amplamente replicada
A tecnologia da OpenAI está prestes a ser amplamente replicada

ChatGPT pode muito bem ser o algoritmo mais famoso e  potencialmente valioso do momento, mas as  técnicas  de inteligência artificial usadas pela OpenAI para fornecer sua inteligência não são únicas nem secretas. Projetos concorrentes e clones de código aberto podem em breve disponibilizar bots no estilo ChatGPT para qualquer pessoa copiar e reutilizar.

A Stability AI , uma startup que já desenvolveu uma tecnologia avançada de geração de imagens de código aberto, está trabalhando em um concorrente aberto do ChatGPT. “Faltam poucos meses para o lançamento”, diz Emad Mostaque, CEO da Stability. Várias startups concorrentes, incluindo  Anthropic ,  Cohere e  AI21 , estão trabalhando em chatbots proprietários semelhantes ao bot da OpenAI.

A inundação iminente de chatbots sofisticados tornará a tecnologia mais abundante e visível para os consumidores, bem como mais acessível para empresas, desenvolvedores e pesquisadores de IA. Isso poderia acelerar a corrida para ganhar dinheiro com ferramentas de IA que geram imagens, código e texto.

Empresas estabelecidas como Microsoft e Slack estão incorporando o ChatGPT  em seus produtos , e muitas startups estão se esforçando para criar  uma nova API do ChatGPT para desenvolvedores . Mas a disponibilidade mais ampla da tecnologia também pode complicar os esforços para prever e mitigar os riscos que a acompanham. 

A capacidade sedutora do ChatGPT de fornecer respostas convincentes a uma ampla gama de perguntas também faz com que às vezes  invente fatos ou adote personas problemáticas. Ele pode ajudar com tarefas maliciosas, como produzir código de malware ou campanhas de spam e desinformação.

Como resultado,  alguns pesquisadores pediram que a implantação de sistemas semelhantes ao ChatGPT seja retardada enquanto os riscos são avaliados. “Não há necessidade de interromper a pesquisa, mas certamente poderíamos regular a implantação generalizada”, diz Gary Marcus, especialista em IA que procurou chamar a atenção para riscos como a desinformação gerada pela IA. “Podemos, por exemplo, pedir estudos em 100.000 pessoas antes de liberar essas tecnologias para 100 milhões de pessoas.” 

A disponibilidade mais ampla de sistemas estilo ChatGPT e o lançamento de versões de código aberto tornariam mais difícil limitar a pesquisa ou uma implantação mais ampla. E a competição entre empresas grandes e pequenas para adotar ou igualar o ChatGPT sugere pouco apetite para desacelerar, mas parece incentivar a proliferação da tecnologia.

Na semana passada, o LLaMA, um modelo de IA desenvolvido pela Meta – e semelhante ao que está no centro do ChatGPT – vazou online depois de ser compartilhado com alguns pesquisadores acadêmicos. O sistema poderia ser usado como um bloco de construção na criação de um chatbot, e seu lançamento  despertou preocupação entre aqueles que temem que os sistemas de IA conhecidos como modelos de linguagem grande e os chatbots construídos sobre eles, como o ChatGPT, sejam usados ​​para gerar desinformação ou automatizar as violações de segurança cibernética. Alguns especialistas argumentam que  tais riscos podem ser exagerados , e outros sugerem que tornar a tecnologia mais transparente  ajudará, de fato, outros a se protegerem contra usos indevidos .  

A Meta se recusou a responder a perguntas sobre o vazamento, mas a porta-voz da empresa, Ashley Gabriel, forneceu uma declaração dizendo: “Embora o modelo não seja acessível a todos e alguns tenham tentado contornar o processo de aprovação, acreditamos que a estratégia de lançamento atual nos permite equilibrar a responsabilidade e abertura”.

O ChatGPT é construído com base na tecnologia de geração de texto que está  disponível há vários anos e aprende a espelhar o texto humano captando padrões em enormes quantidades de texto, muitos deles extraídos da web. A OpenAI descobriu que adicionar uma interface de bate-papo e fornecer uma camada adicional de aprendizado de máquina que envolvia humanos fornecendo feedback sobre as respostas do bot tornava a tecnologia mais capaz e articulada.

Os dados fornecidos pelos usuários que interagem com o ChatGPT, ou serviços criados nele, como a  nova interface de pesquisa Bing da Microsoft , podem fornecer ao OpenAI uma vantagem importante. Mas outras empresas estão trabalhando para replicar o ajuste fino que criou o ChatGPT.

A Stability AI está atualmente financiando um projeto que investiga como treinar chatbots semelhantes chamados  Carper AI . Alexandr Wang, CEO da  Scale AI , uma startup que realiza rotulagem de dados e treinamento em aprendizado de máquina para muitas empresas de tecnologia, diz que muitos clientes estão pedindo ajuda para fazer ajustes semelhantes ao que a OpenAI fez para criar o ChatGPT. “Estamos bastante sobrecarregados com a demanda”, diz ele.

Wang acredita que os esforços já em andamento significarão naturalmente o surgimento de muitos modelos de linguagem e chatbots mais capazes. “Acho que haverá um ecossistema vibrante”, diz ele.

Sean Gourley, CEO da Primer, uma startup que vende ferramentas de IA para analistas de inteligência, incluindo os do governo dos EUA, e consultor da Stability AI, também espera ver em breve muitos projetos criarem sistemas como o ChatGPT. “A conversa mais fria é que isso levou cerca de 20.000 horas de treinamento”, diz ele sobre o processo de feedback humano que aprimorou o bot da OpenAI.

Gourley estima que mesmo um projeto que envolvesse várias vezes mais treinamento custaria alguns milhões de dólares – acessível a uma startup bem financiada ou a uma grande empresa de tecnologia. “É um avanço mágico”, diz Gourley sobre o ajuste fino que a OpenAI fez com o ChatGPT. “Mas não é algo que não será replicado.”

O que aconteceu depois que a OpenAI anunciou  o DALL-E 2, uma ferramenta para gerar imagens complexas e esteticamente agradáveis ​​a partir de um prompt de texto em abril de 2022, pode prenunciar o caminho a seguir para bots do tipo ChatGPT.

A OpenAI implementou proteções em seu gerador de imagens para impedir que os usuários fizessem imagens sexualmente explícitas ou violentas, ou com rostos reconhecíveis, e disponibilizou a ferramenta apenas para um número limitado de artistas e pesquisadores por medo de que ela pudesse ser abusada. No entanto, como as técnicas por trás do DALL-E eram bem conhecidas entre os pesquisadores de IA, ferramentas de arte de IA semelhantes logo apareceram. Quatro meses após o lançamento do DALL-E 2, a Stability AI lançou um gerador de imagens de código aberto chamado Stable Diffusion, que foi dobrado em vários produtos, mas também adaptado  para gerar imagens proibidas pelo OpenAI .

Clement Delangue, CEO da  Hugging Face , empresa que hospeda projetos de IA de código aberto, incluindo alguns desenvolvidos pela Stability AI, acredita que será possível replicar o ChatGPT, mas não quer prever quando. 

“Ninguém sabe e ainda estamos na fase de aprendizado”, diz. “Você nunca sabe realmente que tem um bom modelo antes de ter um bom modelo”, diz ele. “Pode ser na próxima semana, pode ser no próximo ano.” Nenhum dos dois está muito longe.

Fonte:

Traduzido para o Português pela Redação Sustentabilidades

Will Knight
WIRED

 

Copyright © 2009 - 2024 Sustentabilidades - Todos os direitos reservados - All rights reserved.