
A IA e o código aberto surgiram como ferramentas essenciais para as empresas que procuram aumentar a eficiência e impulsionar a inovação. Mas como é que duas forças transformadoras se cruzam e impactam a comunidade da ciência de dados? Eles certamente oferecem novas oportunidades para a ciência de dados, mas há também uma sensação de falta de preparação para lidar com ferramentas emergentes e abordar questões críticas como questões de segurança.
Apesar dos desafios, a adoção continua a aumentar. Uma esmagadora maioria (87%) dos profissionais de ciência de dados está gastando mais tempo ou tanto tempo em técnicas de IA em comparação com o ano passado, de acordo com um novo relatório da Anaconda. As técnicas de IA incluem o uso de redes adversárias generativas (GANs), aprendizado profundo e modelos de transformadores.
No entanto, cerca de um em cada quatro entrevistados (26%) afirmou que as suas empresas têm interesse na IA, mas não têm orçamento ou apoio para gerar valor empresarial. Além disso, 43% dos entrevistados se sentem despreparados para lidar com os desafios da ciência de dados, como regulamentações governamentais, um aumento no uso de IA em todas as funções e a curva de aprendizado acentuada de algumas ferramentas tecnológicas.
Apenas 22% dos entrevistados temem que a IA tome os seus empregos, um declínio acentuado em relação ao relatório do ano passado. Isto revela que menos pessoas estão preocupadas com a possibilidade de a IA ultrapassar os seus empregos. Em vez disso, estão integrando a IA em seus fluxos de trabalho existentes, usando-a para lidar com tarefas trabalhosas ou repetitivas. Isso permite que eles se concentrem em atividades mais inovadoras e de alto nível.
De acordo com o relatório, os principais casos de uso de IA incluem limpeza, visualização e análise de dados (67%), automatização de tarefas (52%) e modelos de previsão ou detecção (52%).
Os principais benefícios do software program de código aberto incluem velocidade de inovação, economia e flexibilidade para os desenvolvedores adaptarem soluções às necessidades específicas do projeto. Embora o código aberto e a IA agreguem valor, eles também apresentam alguns desafios únicos, sendo a segurança a principal preocupação.
A segurança de código aberto foi citada como o maior desafio técnico para a adoção e uso de IA (42%). Isso pode ocorrer porque o código-fonte aberto é transparente e acessível, o que pode torná-lo um alvo fácil para atores mal-intencionados.
As descobertas fazem parte do 7º Relatório Anual de Ciência de Dados: IA e código aberto no trabalho que se baseia em uma pesquisa com mais de 3.000 profissionais de 136 países. Os entrevistados incluíram profissionais de ciência de dados, profissionais de TI, estudantes e pesquisadores ou professores universitários.
No relatório deste ano, a Anaconda, fornecedora de soluções de ciência de dados, aprendizado de máquina e IA, concentrou-se nas últimas tendências em ciência de dados, IA e comunidade de código aberto.
“A inovação em IA não acontece isoladamente. A colaboração de comunidades apaixonadas alimenta isso”, disse Peter Wang, Diretor de IA e Inovação da Anaconda. “Para fazer essa colaboração funcionar, os cientistas e desenvolvedores de dados precisam de ferramentas que ofereçam escalabilidade segura e controles de governança confiáveis.”
Wang enfatizou então como a discussão aberta e a resolução compartilhada de problemas reforçam esses esforços colaborativos. “Além dessas ferramentas, os cientistas de dados e os desenvolvedores também precisam de canais abertos para compartilhar insights, levantar preocupações e resolver problemas coletivamente”, continuou ele.
“Quando as organizações apoiam estes ecossistemas colaborativos, internamente e em toda a comunidade de código aberto mais ampla, criam um terreno fértil onde a inovação prospera e desafios como a segurança podem ser enfrentados de frente.”
As regulamentações para IA continuam a ser uma preocupação persistente para os cientistas de dados. Isto inclui a necessidade de garantir a explicabilidade e a transparência dos modelos de IA (38%), abordar o preconceito e a justiça nos algoritmos de IA (36%) e facilitar a colaboração entre o meio académico e a indústria (14%).
A Anaconda enfatiza no relatório que a colaboração é basic para enfrentar alguns destes desafios. Recomenda que a comunidade da ciência de dados incentive e apoie a aprendizagem, o diálogo aberto e a colaboração internamente e dentro do ecossistema mais amplo da ciência de dados.
“Ter processos estabelecidos internamente com um senso realmente forte do que é ‘bom’ é muito importante”, compartilhou Greg Jennings, vice-presidente de engenharia de IA da Anaconda. “Se você não tiver uma maneira interna de avaliar a qualidade da resposta, será difícil aplicar IA de maneira eficaz. Muito sobre a aplicação de IA a qualquer problema é entender como você itera o sistema para obter uma resposta de qualidade cada vez melhor.”
O relatório destaca que a IA e o código aberto funcionam melhor quando há colaboração envolvida. No entanto, 34% dos administradores de TI não se sentem capacitados para expressar as suas preocupações sobre os riscos de segurança relacionados com a IA e as ferramentas de código aberto.
Juntamente com a colaboração, a Anaconda recomenda apoiar a educação e o ensino para nutrir a força de trabalho durante estas fases iniciais da mudança tecnológica da IA. Os profissionais de ciência de dados e os entrevistados de TI compartilham que cursos on-line, workshops e programas de treinamento presenciais são os melhores métodos para educar e ensinar. Estes podem ser complementados por programas de aprendizagem entre pares e mentoria. Colaboração, comunicação e aprendizagem contínua são destacadas pela Anaconda como ingredientes vitais para obter o máximo valor da IA e de ferramentas de código aberto para ciência de dados.
Itens Relacionados
A definição de IA aberta da OSI não chega a exigir dados abertos
IBM lança novos modelos Granite de código aberto para aprimorar recursos de IA
Além do fosso: poderosos modelos de IA de código aberto prontos para serem usados