Künstliche Intelligenz: Wo man das eigene generative Sprachmodell betreiben kann

Hosting-Provider haben sich auf den KI-Boom eingestellt und bieten flexible, KI-optimierte Server – vor allem in der Cloud.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
, Moritz Reichartz

(Bild: Moritz Reichartz)

Lesezeit: 12 Min.
Von
  • Holger Bleich
Inhaltsverzeichnis

Vor wenigen Monaten noch gab es keine Optionen: Wer eine leistungsfähige Sprach-KI nutzen oder integrieren wollte, kam an ChatGPT kaum vorbei. Doch der Zugriff aufs API hat Nachteile. Er kostet Geld und ist beschränkt auf das starre, nach Gusto von OpenAI trainierte und auf Linie gebrachte Large Language Model (LLM) GPT 3.5 oder 4.

Dies hat sich zum Glück geändert: Frei verfügbare, vortrainierte LLMs ermöglichen es Privatleuten und Unternehmen, eine eigene Sprach-KI zu hosten. In diesem Artikel erfahren Sie, wohin Sie solche Installationen auslagern können, wenn die eigenen Ressourcen nicht ausreichen. Flexible und skalierbare Cloud-Instanzen bieten sich besonders an.

Insbesondere kann man damit einem besonderen Problem beim Zugriff aufs OpenAI-API entgehen: der strittigen Datenschutzkonstellation. Reichen nämlich etwa Desktopprogramme oder Webservices Kunden-Prompts via API an ChatGPT weiter, geben sie die Kontrolle über diese oft personenbeziehbaren und bisweilen auch höchst persönlichen Daten aus der eigenen Hand. Deren Verarbeitung findet in der Blackbox OpenAI statt.

Das war die Leseprobe unseres heise-Plus-Artikels "Künstliche Intelligenz: Wo man das eigene generative Sprachmodell betreiben kann". Mit einem heise-Plus-Abo können sie den ganzen Artikel lesen und anhören.