library(elmer)
<- chat_ollama(
ollama_chat model ="llama3.1"
)
$chat("Erstelle einen Blogbeitrag, der eine spannende Funktion aus dem tidyverse beschreibt.") ollama_chat
llms in R
LLMs
LLMs oder large Language Models sind immernoch ziemlich fancy. Nachdem mittlerweile jeder schon mal mit diesen Modellen gechattet hat, stellen sich einige die Frage, ob man diese Modelle nicht auch verwenden kann, um z.B. Texte zu analysieren. Eine wichtige Vorraussetzung um diese Modelle produktiv zu nutzen ist es, dass man die Modelle auf bereits gespeicherte Daten anwenden kann.
elmer-Paket
Genau dieses Problem löst das elmer-Paket. Dadurch kann man alle gängigen Modelle von openAI, googgle, und auch lokale Modelle in einem einheitlichen Framework und mit identischen Befehlen abfragen. Das bedeutet, man kann sehr einfach ausprobieren welches Modell die besten ergebnisse liefert.
Llama 3.1 mit R
Um das freie LLM llama3.1 nutzen zu können, muss man drei Schritte vornehmen.
- Die Software oLLama herunterladen und installieren: https://www.llama.com
- Ein bereits trainiertes LLM (z.B. llama 3.1 ) installieren (das geht dann in ollama)
- Das elmer-Paket in R installieren.
Wenn man das erledigt hat, kann es losgehen. Hier mein Versuch mich selbst überflüssig zu machen. Die Ergebnisse findet Ihr im zweiten Eintrag für Heute.