A Meta acaba de lançar o maior modelo de IA ‘aberto’ da história. Eis por que isso importa.


No mundo de inteligência syntheticuma batalha está em andamento. De um lado estão as empresas que acreditam em manter os conjuntos de dados e algoritmos por trás de seus softwares avançados privados e confidenciais. Do outro, estão as empresas que acreditam em permitir que o público veja o que está por baixo do capô de seus sofisticados modelos de IA.

Pense nisso como a batalha entre IA de código aberto e fechado.

Nas últimas semanas, a Meta, empresa-mãe do Fb, assumiu a luta pela IA de código aberto em grande estilo por liberando uma nova coleção de grandes modelos de IA. Isso inclui um modelo chamado Llama 3.1 405B, que o fundador e presidente-executivo da Meta, Mark Zuckerberg, diz é “o primeiro modelo de IA de código aberto de nível de fronteira”.

Para qualquer um que se preocupe com um futuro em que todos possam acessar os benefícios da IA, esta é uma boa notícia.

O perigo da IA ​​de código fechado e a promessa da IA ​​de código aberto

IA de código fechado refere-se a modelos, conjuntos de dados e algoritmos que são proprietários e mantidos confidenciais. Exemplos incluem Bate-papoGPT, Gêmeos do Googlee Claude da Antropologia.

Embora qualquer pessoa possa usar esses produtos, não há como descobrir quais conjuntos de dados e códigos-fonte foram usados ​​para construir o modelo ou a ferramenta de IA.

Embora essa seja uma ótima maneira para as empresas protegerem sua propriedade intelectual e lucros, ela corre o risco de minar a confiança e a responsabilidade públicas. Tornar a tecnologia de IA de código fechado também desacelera a inovação e torna uma empresa ou outros usuários dependentes de uma única plataforma para suas necessidades de IA. Isso ocorre porque a plataforma que possui o modelo controla mudanças, licenciamento e atualizações.

Há uma variedade de estruturas éticas que buscam melhorar a justiça, a responsabilização, a transparência, a privacidade e a supervisão humana da IA. No entanto, esses princípios geralmente não são totalmente alcançados com a IA de código fechado devido a a falta inerente de transparência e responsabilidade externa associadas a sistemas proprietários.

No caso do ChatGPT, sua empresa controladora, a OpenAI, não divulga nem o conjunto de dados nem o código de suas últimas ferramentas de IA para o público. Isso torna impossível para os reguladores auditá-lo. E embora o acesso ao serviço seja gratuito, ainda há preocupações sobre como os dados dos usuários são armazenados e usados ​​para modelos de retreinamento.

Por outro lado, o código e o conjunto de dados por trás dos modelos de IA de código aberto estão disponíveis para todos verem.

Isso promove o desenvolvimento rápido por meio da colaboração da comunidade e permite o envolvimento de organizações menores e até mesmo indivíduos no desenvolvimento de IA. Também faz uma grande diferença para pequenas e médias empresas, pois o custo de treinar grandes modelos de IA é colossal.

Talvez o mais importante seja que a IA de código aberto permite o exame minucioso e a identificação de possíveis vieses e vulnerabilidades.

No entanto, a IA de código aberto cria novos riscos e preocupações éticas.

Por exemplo, o controle de qualidade em produtos de código aberto geralmente é baixo. Como os hackers também podem acessar o código e os dados, os modelos também são mais propensos a ataques cibernéticos e podem ser adaptados e personalizados para propósitos maliciosos, como retreinar o modelo com dados da darkish net.

Um pioneiro em IA de código aberto

Entre todas as empresas líderes em IA, a Meta surgiu como pioneira em IA de código aberto. Com seu novo conjunto de modelos de IA, ela está fazendo o que a OpenAI prometeu fazer quando lançado em dezembro de 2015 — ou seja, promover a inteligência digital “da maneira que mais provavelmente beneficiará a humanidade como um todo”, como a OpenAI disse naquela época.

Lhama 3.1 405B é o maior modelo de IA de código aberto da história. É o que é conhecido como um grande modelo de linguagem, capaz de gerar texto em linguagem humana em vários idiomas. Ele pode ser baixado on-line, mas devido ao seu tamanho enorme, os usuários precisarão de {hardware} potente para executá-lo.

Embora não supere outros modelos em todas as métricas, o Llama 3.1 405B é considerado altamente competitivo e tem um desempenho melhor do que os modelos de linguagem grandes comerciais e de código fechado existentes em certas tarefas. como tarefas de raciocínio e codificação.

Mas o novo modelo não é completamente aberto porque o Meta não liberou o enorme conjunto de dados usado para treiná-lo. Este é um elemento “aberto” significativo que está faltando atualmente.

No entanto, o Llama da Meta nivela o campo de jogo para pesquisadores, pequenas organizações e startups porque pode ser aproveitado sem os imensos recursos necessários para treinar grandes modelos de linguagem do zero.

Moldando o futuro da IA

Para garantir que a IA seja democratizada, precisamos de três pilares fundamentais:

  • Governança: estruturas regulatórias e éticas para garantir que a tecnologia de IA seja desenvolvida e usada de forma responsável e ética
  • Acessibilidade: recursos de computação acessíveis e ferramentas fáceis de usar para garantir um cenário justo para desenvolvedores e usuários
  • Abertura: conjuntos de dados e algoritmos para treinar e construir ferramentas de IA devem ser de código aberto para garantir transparência.

Alcançar esses três pilares é uma responsabilidade compartilhada pelo governo, indústria, academia e o público. O público pode desempenhar um papel important defendendo políticas éticas em IA, mantendo-se informado sobre os desenvolvimentos de IA, usando IA de forma responsável e apoiando iniciativas de IA de código aberto.

Mas várias questões permanecem sobre a IA de código aberto. Como podemos equilibrar a proteção da propriedade intelectual e o fomento da inovação por meio da IA ​​de código aberto? Como podemos minimizar as preocupações éticas em torno da IA ​​de código aberto? Como podemos proteger a IA de código aberto contra o uso indevido em potencial?

Abordar adequadamente essas questões nos ajudará a criar um futuro em que a IA seja uma ferramenta inclusiva para todos. Iremos enfrentar o desafio e garantir que a IA sirva ao bem maior? Ou deixaremos que ela se torne outra ferramenta desagradável de exclusão e controle? O futuro está em nossas mãos.A Meta acaba de lançar o maior modelo de IA ‘aberto’ da história. Eis por que isso importa.

Este artigo foi republicado de A conversa sob uma licença Inventive Commons. Leia o artigo authentic.

Crédito da imagem: Google DeepMind / Desaparecer

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *