purchasing heart Utiliza modelos de idiomas grandes (LLM) para executar operações de processamento de linguagem pure (PNL) em relação aos seus dados. Este pacote está disponível para R e Python. Versão 0.2.0 foi lançada para
Cran e
Pypi respectivamente.
Em R, você pode instalar a versão mais recente com:
Em Python, com:
Esta versão expande o número de provedores de LLM que você pode usar com mall. Além disso, no Python, apresenta a opção de executar as operações de PNL em vetores de string e, em r, permite suporte para solicitações “paralelas”.
Também é muito emocionante anunciar uma nova folha de truques para este pacote. Está disponível no formato impresso (PDF) e HTML!
Mais fornecedores de LLM
O maior destaque deste lançamento é a capacidade de usar fornecedores externos de LLM, como OpenaiAssim, Gêmeos
e Antrópico. Em vez de escrever integração para cada provedor um por um, mall usa pacotes de integração especializados para atuar como intermediários.
Em r, mall usa o ellmer pacote para se integrar com Uma variedade de fornecedores de LLM. Para acessar o novo recurso, primeiro crie uma conexão de bate -papo e depois passe essa conexão com llm_use(). Aqui está um exemplo de conexão e uso do OpenAI:
set up.packages("ellmer")
library(mall)
library(ellmer)
chat <- chat_openai()
#> Utilizing mannequin = "gpt-4.1".
llm_use(chat, .cache = "_my_cache")
#>
#> ── mall session object
#> Backend: ellmerLLM session: mannequin:gpt-4.1R session: cache_folder:_my_cacheEm Python, mall usos chatlas como o ponto de integração com o LLM. chatlas também se integra a
vários provedores de LLM. Para usar, primeiro instancie um chatlas Class de conexão de bate -papo e depois transmitir isso para o Polars quadro de dados através do função:
pip set up chatlas
import mall
from chatlas import ChatOpenAI
chat = ChatOpenAI()
knowledge = mall.MallData
critiques = knowledge.critiques
critiques.llm.use(chat)
#> {'backend': 'chatlas', 'chat':
#> , '_cache': '_mall_cache'}Conectando mall A provedores externos da LLM apresenta uma consideração do custo. A maioria dos fornecedores cobra pelo uso de sua API, portanto, há um potencial de que uma tabela grande, com textos longos, possa ser uma operação cara.
Solicitações paralelas (somente R)
Um novo recurso introduzido em ellmer 0.3.0
Permite o acesso para enviar vários avisos em paralelo, e não em sequência. Isso o torna mais rápido e potencialmente mais barato, processar uma tabela. Se o provedor suportar esse recurso, ellmer é capaz de alavancá -lo através do
parallel_chat()
função. Gêmeos e Openai suportam o recurso.
No novo lançamento de malla integração com ellmer foi especialmente escrito para aproveitar o bate -papo paralelo. Os internos foram reescritos para enviar as instruções específicas do NLP como uma mensagem do sistema para reduzir o tamanho de cada immediate. Além disso, o sistema de cache também foi re-resolvido para suportar solicitações em lotes.
Operações de PNL sem uma tabela
Desde sua versão inicial, mall forneceu a capacidade dos usuários R de executar as operações do PNL em um vetor de string, em outras palavras, sem precisar de uma tabela. Começando com o novo lançamento, mall Também fornece essa mesma funcionalidade em sua versão Python.
mall pode processar vetores contidos em um record objeto. Para usar, inicialize um novo LLMVec objeto de classe com um modelo Ollama, ou um chatlas Chat
objeto e depois acesse as mesmas funções de PNL que a extensão Polars.
# Initialize a Chat object
from chatlas import ChatOllama
chat = ChatOllama(mannequin = "llama3.2")
# Move it to a brand new LLMVec
from mall import LLMVec
llm = LLMVec(chat) Acesse as funções através do novo objeto LLMVEC e passe o texto a ser processado.
llm.sentiment(("I'm joyful", "I'm unhappy"))
#> ('constructive', 'unfavorable')
llm.translate(("Este es el mejor dia!"), "english")
#> ('That is the perfect day!')Para mais informações, visite a página de referência: Llmvec
Nova folha de truques
A nova folha de truques oficiais já está disponível na Posit:
Processamento de linguagem pure usando LLMS em R/Python. Sua característica média é que um lado da página é dedicado à versão R e o outro lado da página para a versão Python.

Uma versão da página da internet também está disponível no website oficial da folha de fraudes
aqui. Aproveita o recurso de guia que permite selecionar entre explicações e exemplos de R e Python.
