Schulungsübersicht

Einführung in Ollama

  • Was ist Ollama und wie funktioniert es?
  • Vorteile der lokalen Ausführung von KI-Modellen
  • Überblick über die unterstützten LLMs (Llama, DeepSeek, Mistral, etc.)

Installieren und Einrichten von Ollama

  • Systemanforderungen und Überlegungen zur Hardware
  • Installation von Ollama auf verschiedenen Betriebssystemen
  • Konfigurieren von Abhängigkeiten und Einrichten der Umgebung

Lokales Ausführen von AI-Modellen

  • Herunterladen und Laden von AI-Modellen in Ollama
  • Interaktion mit Modellen über die Kommandozeile
  • Grundlegendes Prompt-Engineering für lokale AI-Aufgaben

Optimierung von Leistung und Ressourcennutzung

  • Verwaltung von Hardware-Ressourcen für eine effiziente KI-Ausführung
  • Verringerung der Latenz und Verbesserung der Reaktionszeit von Modellen
  • Benchmarking der Leistung für verschiedene Modelle

Use Cases für den lokalen KI-Einsatz

  • KI-gestützte Chatbots und virtuelle Assistenten
  • Datenverarbeitung und Automatisierungsaufgaben
  • KI-Anwendungen mit Fokus auf Datenschutz

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Grundlegendes Verständnis von KI und Konzepten des maschinellen Lernens
  • Vertrautheit mit Befehlszeilenschnittstellen

Zielgruppe

  • Entwickler, die KI-Modelle ohne Cloud-Abhängigkeiten betreiben
  • Business Fachleute, die an KI-Datenschutz und kostengünstigem Einsatz interessiert sind
  • KI-Enthusiasten, die den lokalen Einsatz von Modellen erkunden
 7 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien