No mundo de inteligência syntheticuma batalha está em andamento. De um lado estão as empresas que acreditam em manter os conjuntos de dados e algoritmos por trás de seus softwares avançados privados e confidenciais. Do outro, estão as empresas que acreditam em permitir que o público veja o que está por baixo do capô de seus sofisticados modelos de IA.
Pense nisso como a batalha entre IA de código aberto e fechado.
Nas últimas semanas, a Meta, empresa-mãe do Fb, assumiu a luta pela IA de código aberto em grande estilo por liberando uma nova coleção de grandes modelos de IA. Isso inclui um modelo chamado Llama 3.1 405B, que o fundador e presidente-executivo da Meta, Mark Zuckerberg, diz é “o primeiro modelo de IA de código aberto de nível de fronteira”.
Para qualquer um que se preocupe com um futuro em que todos possam acessar os benefícios da IA, esta é uma boa notícia.
O perigo da IA de código fechado e a promessa da IA de código aberto
IA de código fechado refere-se a modelos, conjuntos de dados e algoritmos que são proprietários e mantidos confidenciais. Exemplos incluem Bate-papoGPT, Gêmeos do Googlee Claude da Antropologia.
Embora qualquer pessoa possa usar esses produtos, não há como descobrir quais conjuntos de dados e códigos-fonte foram usados para construir o modelo ou a ferramenta de IA.
Embora essa seja uma ótima maneira para as empresas protegerem sua propriedade intelectual e lucros, ela corre o risco de minar a confiança e a responsabilidade públicas. Tornar a tecnologia de IA de código fechado também desacelera a inovação e torna uma empresa ou outros usuários dependentes de uma única plataforma para suas necessidades de IA. Isso ocorre porque a plataforma que possui o modelo controla mudanças, licenciamento e atualizações.
Há uma variedade de estruturas éticas que buscam melhorar a justiça, a responsabilização, a transparência, a privacidade e a supervisão humana da IA. No entanto, esses princípios geralmente não são totalmente alcançados com a IA de código fechado devido a a falta inerente de transparência e responsabilidade externa associadas a sistemas proprietários.
No caso do ChatGPT, sua empresa controladora, a OpenAI, não divulga nem o conjunto de dados nem o código de suas últimas ferramentas de IA para o público. Isso torna impossível para os reguladores auditá-lo. E embora o acesso ao serviço seja gratuito, ainda há preocupações sobre como os dados dos usuários são armazenados e usados para modelos de retreinamento.
Por outro lado, o código e o conjunto de dados por trás dos modelos de IA de código aberto estão disponíveis para todos verem.
Isso promove o desenvolvimento rápido por meio da colaboração da comunidade e permite o envolvimento de organizações menores e até mesmo indivíduos no desenvolvimento de IA. Também faz uma grande diferença para pequenas e médias empresas, pois o custo de treinar grandes modelos de IA é colossal.
Talvez o mais importante seja que a IA de código aberto permite o exame minucioso e a identificação de possíveis vieses e vulnerabilidades.
No entanto, a IA de código aberto cria novos riscos e preocupações éticas.
Por exemplo, o controle de qualidade em produtos de código aberto geralmente é baixo. Como os hackers também podem acessar o código e os dados, os modelos também são mais propensos a ataques cibernéticos e podem ser adaptados e personalizados para propósitos maliciosos, como retreinar o modelo com dados da darkish net.
Um pioneiro em IA de código aberto
Entre todas as empresas líderes em IA, a Meta surgiu como pioneira em IA de código aberto. Com seu novo conjunto de modelos de IA, ela está fazendo o que a OpenAI prometeu fazer quando lançado em dezembro de 2015 — ou seja, promover a inteligência digital “da maneira que mais provavelmente beneficiará a humanidade como um todo”, como a OpenAI disse naquela época.
Lhama 3.1 405B é o maior modelo de IA de código aberto da história. É o que é conhecido como um grande modelo de linguagem, capaz de gerar texto em linguagem humana em vários idiomas. Ele pode ser baixado on-line, mas devido ao seu tamanho enorme, os usuários precisarão de {hardware} potente para executá-lo.
Embora não supere outros modelos em todas as métricas, o Llama 3.1 405B é considerado altamente competitivo e tem um desempenho melhor do que os modelos de linguagem grandes comerciais e de código fechado existentes em certas tarefas. como tarefas de raciocínio e codificação.
Mas o novo modelo não é completamente aberto porque o Meta não liberou o enorme conjunto de dados usado para treiná-lo. Este é um elemento “aberto” significativo que está faltando atualmente.
No entanto, o Llama da Meta nivela o campo de jogo para pesquisadores, pequenas organizações e startups porque pode ser aproveitado sem os imensos recursos necessários para treinar grandes modelos de linguagem do zero.
Moldando o futuro da IA
Para garantir que a IA seja democratizada, precisamos de três pilares fundamentais:
- Governança: estruturas regulatórias e éticas para garantir que a tecnologia de IA seja desenvolvida e usada de forma responsável e ética
- Acessibilidade: recursos de computação acessíveis e ferramentas fáceis de usar para garantir um cenário justo para desenvolvedores e usuários
- Abertura: conjuntos de dados e algoritmos para treinar e construir ferramentas de IA devem ser de código aberto para garantir transparência.
Alcançar esses três pilares é uma responsabilidade compartilhada pelo governo, indústria, academia e o público. O público pode desempenhar um papel important defendendo políticas éticas em IA, mantendo-se informado sobre os desenvolvimentos de IA, usando IA de forma responsável e apoiando iniciativas de IA de código aberto.
Mas várias questões permanecem sobre a IA de código aberto. Como podemos equilibrar a proteção da propriedade intelectual e o fomento da inovação por meio da IA de código aberto? Como podemos minimizar as preocupações éticas em torno da IA de código aberto? Como podemos proteger a IA de código aberto contra o uso indevido em potencial?
Abordar adequadamente essas questões nos ajudará a criar um futuro em que a IA seja uma ferramenta inclusiva para todos. Iremos enfrentar o desafio e garantir que a IA sirva ao bem maior? Ou deixaremos que ela se torne outra ferramenta desagradável de exclusão e controle? O futuro está em nossas mãos.
Este artigo foi republicado de A conversa sob uma licença Inventive Commons. Leia o artigo authentic.
Crédito da imagem: Google DeepMind / Desaparecer