Skip to content

Custom GPTs: erste Schritte zur eigenen K. I.

Die Leistungsfähigkeit der ganz neuen Modelle ist beeindruckend. Wie gut GPTs „4o mini high“ simple Briefings in funktionierend Code generiert ist absurd gut. Dass wir bei Open AI immer Zugriff auf die neuen Modelle erhalten macht das Tool im Alltag zum Marktführer. Sobald wir allerdings auch nur „eine heikle Date“ verarbeiten wollen, müssen wir über lokale oder verantwortungsvoll gehostete Lösungen nachdenken!

Folgend zwei effektive Wege, um Large Language Models (LLMs) mit eigenen Daten und Prompts zu trainieren:

  1. Custom GPT über OpenAI – ideal für schnelle, Cloud-basierte Spezialisierung.
  2. DeepSeek R1 lokal mit Ollama – perfekt für datenschutzfreundliche und voll anpassbare Modelle.

1. Custom GPT: Eigenes Assistant‑Modell mit OpenAI

Im Beispiel rechts ein Briefing für einen Chatbot, dessen gesamter Inhalt auf öffentlichen Daten basiert. Hier habe ich überhaupt keine Bedenken Open AIs Lösung zu verwenden, da das Briefing und die Einstellungen für den Chatbot wirklich leicht einzurichten sind.

Simples Briefing für einen Chatbot, der Fragen zu einem Produkt beantwortet.
  1. Ziel definieren: Bestimmen Sie das Einsatzgebiet (z. B. „Markenanalyse-GPT“). Schauen Sie, wie andere diese Art von System briefen.
  2. ChatGPT plus (Abo erforderlich) aufrufen: chatgpt.com/gpts/
  3. Prompts & Anweisungen konfigurieren: Im Editor klare Instruktionen eingeben – Stil, Ton, Verhalten
  4. Wissensdaten hochladen: Sie können Dokumente (PDF, CSV bis zu 512 MB) anfügen .
  5. Capabilities wählen: Websuche, Code Interpreter, API-Aktionen ein‑/ausschalten .
  6. Testen & Iterieren: Im Vorschau-Modus prüfen, mit Konversationstartern testen
  7. Teilen & Absichern: Veröffentlichung nur per Link oder innerhalb der Organisation – idealerweise mit eingebauten Safeguards, wie z. B. Verweigerung der Offenlegung von Prompt‑Inhalten .

Ansätze & Prompt-Inspiration

Zuletzt bin ich auf ein Github Projekt (x1xhlol/system-prompts-and-models-of-ai-tools) gestoßen, in dem einige der System-Prompts bekannter K. I. Systeme „geleakt“ wurden. Es ist ganz spannend zu sehen, wie simple die Anweisungen teilweise sind. Es hilft zu begreifen, wie man einen Computer mit Worten trainiert. Ebenso hilfreich ist reddit. Hier (https://www.reddit.com/r/ChatGPTPromptGenius/how_to_build_customgpts_2025_guide/) zum Beispiel hat jemand seine Strategie hinter einige Custom GPTs offengelegt. UNFUSE – fand ich gut zusammengefasst:

  • I – Identity & Goal (Defines what the persona is, its role, and its objectives)
  • N – Navigation Rules (Establishes how it engages with users, including commands and knowledge usage)
  • F – Flow & Personality (Sets tone, language style, and key personality traits)
  • U – User Guidance (Guides users toward their goal with a structured method)
  • S – Signals & Adaptation (Adjusts responses based on user signals and emotional cues)
  • E – End Instructions (Key instructions the GPT must always remember)

1.X – Europäische cloud oder die Deutsche Lösung

Aleph Alpha – Pulic Sector

Ich würde eine Deutsche K. I. wählen, wäre ich eine Behörde. Ich finde es schon gruselig, dass wir in deutschen Polizeibehörden auf Palantir setzen müssen, weil es keine europäische Alternative gibt. Ich habe kein Problem chat.deepseek.com zu nutzen, wenn ich mit öffentlichen Daten hantiere. Da sage ich danke für den kostenlosen Compute.

Wenn öffentliche Stellen Künstliche Intelligenz nutzen, stehen Datenschutz und Nachvollziehbarkeit an erster Stelle. Aleph Alpha erfüllt diese Anforderungen: Das Unternehmen entwickelt seine Modelle in Deutschland, speichert Daten in deutschen Rechenzentren und arbeitet nach europäischen Datenschutzstandards. Zudem ermöglicht es Einsicht in die Entscheidungsprozesse der Modelle – ein wichtiger Aspekt für Behörden, die Transparenz und Rechenschaftspflicht sicherstellen müssen. Für Anwendungen im öffentlichen Sektor ist Aleph Alpha deshalb eine technisch und rechtlich nachvollziehbare Lösung.

2. DeepSeek R1 lokal trainieren mit Ollama

Wenn Kosten keine Rolle spielen sind Sie bei Aleph Alpha oder einen anderen deutschen Spezialisten am Besten aufgehoben. Aber das schönste am Internet sind die Open Source Projekte. Open AI ist mal so gestartet, mit ehrenwerten Zielen und dem Zwang zur Offenheit. Das hatte sich schnell erledigt als Microsoft das Scheckbuch rausgeholt hatte.

Aber es gibt unzählige gute Open Source Projekte, die oft sehr gut dokumentiert sind, so dass Sie mit wenigen Eingaben in die Konsole eigene K. I. Werkezuge lokal und offline betreiben können. Dazu sind einige technische Fähigkeiten notwendig, aber wer heute noch einen Drucker installieren kann, der schafft auch das! Und wenn man einmal im Terminal zu Hause ist, öffnet sich die Büchse der Pandorra zu unendlichen Möglichkeiten. Nehmen wir das Beispiel deepseek auf Ollama. Sie sind nur einen Download und einige BEfehle im Terminal entfernt. Probieren Sie es:

  1. Ollama herunterladen (ollama.com/download) und wie gewohnt instalieren
  2. Terminal öffnen: Terminal in das Suchfeld Ihres Macs oder Windows-Rechners
ollama run deepseek-r1:1.5b

Jetzt lädt ihr Computer alle notwendige Dinge herunter und Sie können das LLM lokal im Temrinal nutzen. Der nächste Schritt wäre dann Open Web UI oder ein anderes Tool, um eine Oberfläche für die Bedienung zu haben. Aber dann braucht man auch ein bisschen Erfahrung mit Docker, wenn man es sinnvoll in ein NEtzwerk integrieren möchte, um es lokal zur Verfügung zu stellen.

Aber man die volle Kontrolle über alle integrierten Daten und der BEtrieb ist ohne Lizenz kostenfrei möglich, die Reichenliestung muss man entsprechend der Anforderungen zur Verfügung stellen.


Fazit & Übersicht

SzenarioCustom GPTDeepSeek + Ollama lokal
EinrichtungSchnell & ohne CodeTechnischer Setup erforderlich
DatenkontrolleUpload, aber Cloud‑basiertVollständig lokal, datenschutzkonform
Training / AnpassungPrompt-/Dokument‑basierte AnpassungModell- & Prompt-Feintuning lokal möglich
KostenOpenAI-Zugriff erforderlichEinmalige Hardware-Kosten
Updates & IterationEinfach über GUIManuelle Updates und Fine‑Tuning

RAG: Kontext trifft Kontrolle

Wollen wir jetzt eigene Daten klug und zukufntssicher integrieren, wird es komplexer. Aber der Aufwand lohnt sich, denn die Aufbereitung der Daten ist immer überfällig! Und so haben Sie die Chance eine zentrale Datenverarbeitung zu führen, die dann verschiedenen Systemen zur Verfügung gestellt werden kann. RAG ist das Stichwort: Retrieval-Augmented Generation (RAG) ermöglicht es, LLMs mit externen Datenquellen zu kombinieren – ohne dass diese Daten fest ins Modell „eingebacken“ werden. Bei lokalen Setups wie DeepSeek mit Ollama bedeutet das: Sie verbinden das Modell mit einer semantischen Suchdatenbank (z. B. über LangChain, LlamaIndex oder Haystack), die relevante Informationen aus PDF, CSV oder Ihrer eigenen Wissensdatenbank in Echtzeit zum Prompt hinzufügt. So erhalten Sie hochrelevante, kontextspezifische Antworten – bei maximaler Datenhoheit. Besonders in Unternehmen mit sensiblen Informationen bietet RAG lokal eine attraktive Alternative zur Cloud-KI: intelligent, aktuell und 100 % datenschutzkonform.

Empfehlung: Verwenden Sie Custom GPT, wenn Sie schnell und unkompliziert in Cloud arbeiten wollen. Entscheiden Sie sich für DeepSeek + Ollama, wenn Datenschutz, Offline-Fähigkeit und Anpassbarkeit im Vordergrund stehen. Suchen Sie sich die richtigen Tutorials und Anleitungen. BAuen SIe sich einen Custom GPT, der Ihnen bei der Installation und Einrichtung hilft. Es lohnt sich!


weitere Quellen und Ansätze

  • Starten Sie mit einer kleineren Version (z. B. 7B–14B) (https://www.datacamp.com/tutorial/deepseek-r1-ollama?utm_source=chatgpt.com)
  • Nutzen Sie quantisierte GGUF-Modelle, um Ressourcen zu sparen (https://dev.to/ajeetraina/getting-started-with-deepseek-llm-using-ollama-locally-3n1h?utm_source=chatgpt.com)
  • Docker & Open WebUI erleichtern Frontend-Integration (https://dev.to/ajeetraina/getting-started-with-deepseek-llm-using-ollama-locally-3n1h?utm_source=chatgpt.com)
  • https://www.reddit.com/r/ChatGPTPromptGenius/comments/1j2v124/how_to_build_customgpts_2025_guide/?utm_source=chatgpt.com

weitere Beiträge

Gelbe Seiten 202X: Google My Business Inhaberschaft beantragen
·
10. April 2023

Gelbe Seiten 202X: Google My Business Inhaberschaft beantragen

Nutzen Sie die kostenlosen Gelben Seiten von 2023.

Die perfekte Praxis-Webseite (Beispiel: Zahnarzt)
·
15. Juni 2020

Die perfekte Praxis-Webseite (Beispiel: Zahnarzt)

Was macht eine gute Webseite aus?Das ist eigentlich einfach zu beantworten. Eine gute Webseite: funktioniert auf allen Geräten gleichermaßen (responsive)…

Facebook / Meta Business Manager einrichten
·
16. August 2017

Facebook / Meta Business Manager einrichten

Ihr privater Facebook Account ist Ihr Weg zum Business-Manager? Unternehmer sollten Ihren Account unbedingt behalten und korrekt verknüpfen, um effektiv…

Custom GPTs: erste Schritte zur eigenen K. I.
·
13. Juni 2025

Custom GPTs: erste Schritte zur eigenen K. I.

Die Leistungsfähigkeit der ganz neuen Modelle ist beeindruckend. Wie gut GPTs „4o mini high“ simple Briefings in funktionierend Code generiert…

Kontakt & Feedback

Auch mit regelmäßigen Updates und neuen Automatisierungen werden wir nie perfekt sein, aber immer offen für Kritik und Feedback. Schreiben Sie uns:

Für alle Fragen Social Media und Kooperationen mit Influencern sind wir, die Agentur für Öffentlichkeitsarbeit next im Frankfurter Bahnhofsviertel, genau der richtige Ansprechpartner.

Navigation

An den Anfang scrollen