Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
Einführung in Ollama
- Was ist Ollama und wie funktioniert es?
- Vorteile der lokalen Ausführung von KI-Modellen
- Überblick über die unterstützten LLMs (Llama, DeepSeek, Mistral, etc.)
Installieren und Einrichten von Ollama
- Systemanforderungen und Überlegungen zur Hardware
- Installation von Ollama auf verschiedenen Betriebssystemen
- Konfigurieren von Abhängigkeiten und Einrichten der Umgebung
Lokales Ausführen von AI-Modellen
- Herunterladen und Laden von AI-Modellen in Ollama
- Interaktion mit Modellen über die Kommandozeile
- Grundlegendes Prompt-Engineering für lokale AI-Aufgaben
Optimierung von Leistung und Ressourcennutzung
- Verwaltung von Hardware-Ressourcen für eine effiziente KI-Ausführung
- Verringerung der Latenz und Verbesserung der Reaktionszeit von Modellen
- Benchmarking der Leistung für verschiedene Modelle
Use Cases für den lokalen KI-Einsatz
- KI-gestützte Chatbots und virtuelle Assistenten
- Datenverarbeitung und Automatisierungsaufgaben
- KI-Anwendungen mit Fokus auf Datenschutz
Zusammenfassung und nächste Schritte
Voraussetzungen
- Grundlegendes Verständnis von KI und Konzepten des maschinellen Lernens
- Vertrautheit mit Befehlszeilenschnittstellen
Zielgruppe
- Entwickler, die KI-Modelle ohne Cloud-Abhängigkeiten betreiben
- Business Fachleute, die an KI-Datenschutz und kostengünstigem Einsatz interessiert sind
- KI-Enthusiasten, die den lokalen Einsatz von Modellen erkunden
7 Stunden