Your Copilot How To 004 – Phi-3 und Llama3 lokal mit LMStudio betreiben – Sparfüchse aufgepasst!

Das Video ist eine Demonstration von LM Studio, einer Software, die es ermöglicht, lokale Sprachmodelle zu entdecken, herunterzuladen und auszuführen.

Ich zeige, wie ihr mit verschiedenen Modellen wie Lama 3 von Meta und Phi 3 von Microsoft chatten könnt, ohne eine Internetverbindung oder Cloud-Dienste zu benötigen. Ich erkläre auch, wie ihr LM-Studio als Server nutzen könnt, um lokale Modelle z.B. in bestehende Python-Skripte einzubinden.

Die Vorteile von lokalen Sprachmodellen: Sicherheit, Kosten und Leistung.

https://lmstudio.ai

https://yourcopilot.de