Willkommen in unserem FAQ-Bereich zu ChatGPT! Diese Seite enthält die am häufigsten gestellten Fragen zum Sprachmodell und dessen Nutzung, die in unseren ChatGPT-Webinaren aufgekommen sind. Wir hoffen, dass Sie auf dieser Seite hilfreiche und informative Antworten auf Ihre Fragen zu ChatGPT finden.
Für weitere tiefergehende Informationen empfehlen wir Ihnen, sich die Aufzeichnung eines unserer früheren Webinare zu ChatGPT anzusehen. Wenn Sie mehr über ChatGPT erfahren und auf dem neuesten Stand bleiben möchten, bieten wir zudem Mitarbeiterschulungen und Beratungsgespräche an.
Benötigen Sie Unterstützung bei Ihren Generative AI-Projekten? Vom unserem Use Case Workshop über unsere Führungskräfte Schulung bis hin zur Entwicklung und Pflege von GenAI-Produkten bietet die Alexander Thamm GmbH seinen Kunden ein weites Spektrum von Dienstleistungen im Bereich Generative AI an. Informieren Sie sich auf unserer Dienstleistungsseite und kontaktieren Sie uns jederzeit für eine unverbindliche Beratung:
Inhaltsverzeichnis
Allgemeine Funktionsweise
Korrekt, ChatGPT sagt nur die Wörter (und dementsprechend auch Antworten) vorher, die im gegebenen Kontext am wahrscheinlichsten sind. Es greift nicht auf festes Wissen oder grundsätzliches Verständnis der Inhalte zurück.
Durch die kostenfreie Anmeldung auf der OpenAI-Website chat.openai.com oder über die angebotene Schnittstelle (API).
Ja, in seiner Handhabung ist ChatGPT eine Software, mit der Informationen in Form von Konversationen ausgetauscht werden. Das Dialogformat ermöglicht, wie bei einem Chatbot, Fragen zu stellen und selbst zu hinterfragen.
ChatGPT kann auf Deutsch Anfragen verstehen und Inhalte erzeugen. Auch in anderen verbreiteten Sprachen (Spanisch, Italienisch) ist das Modell bedienbar. Allerdings kann aufgrund des geringeren Anteils der fremdsprachigen Trainingsdaten die Qualität im Vergleich zum Englischen etwas geringer ausfallen. Für komplexer Fragestellungen und Aufgaben ist deshalb grundsätzlich Englisch als Eingabesprache zu empfehlen.
GPT-4 ist über die kostenpflichtige ChatGPT Plus Premiumversion des Dienstes eingebunden. In der kostenfreien Version wird noch GPT-3 als Grundlage genutzt.
ChatGPT kann bereits auf bereits gestellte Fragen und Aussagen zurückgreifen und hat somit eine Art „Gedächtnis“.
Eine offizielle Aussage habe ich dazu nicht gefunden, vermute jedoch, dass es mit dem Sammeln der Trainingsdaten und des Trainings selbst zusammenhängt. Dieser Prozess nimmt einige Zeit in Anspruch und daher kommt diese Differenz.
Das Modell hat bei der zweiten Antwort mehr Kontextwissen, indem es die Ausgabe erklärt. Mehr Kontext (auch bei der Eingabe) verbessert i.d.R. die Qualität der Antworten.
Der Output des Modells wurde in eine andere Richtung gestoßen oder „gebiased“. Das Modell selbst wird nicht beeinflusst.
Nur innerhalb der Session. Wir wissen aber nicht, was OpenAI später mit unseren Eingaben macht. Manche sehen die aktuelle Phase als einen großen Betatest, wofür wir Nutzer gratis Daten liefern
Dafür wurde das „Reward Model“ trainiert, um das „Human Feedback“ zu approximieren als zu schätzen, wie nützlich die Antwort für Menschen wären.
Garantien gibt es natürlich nie. Auch bei menschlichen Aussagen. Selbst ein mathematischer Beweis ist nicht notwendigerweise richtig. Aber wir arbeiten an Ansätzen, ein Verlässlichkeitsmaß zu entwickeln.
Die Modelle im Hintergrund sind bisher statisch und somit nicht im Kern veränderbar von außen.
Der Bereich Kausalität in Antworten von Machine Learning Modelle zu integrieren ist ein eigener Forschungsbereich. Dazu gibt es diverse Paper auf Google Scholar.
Schwierige Frage, vor allem das „Human Feedback“ während der Trainingsphase soll dabei helfen problematische Antworten zu vermeiden. Das FZI hat beispielsweise ein Projekt ins Leben gerufen, das sich der Aufgabe widmet, Fake News mit Hilfe von KI aufzuspüren: https://www.fzi.de/project/defakts/
Indem man die Ausgaben von ChatGPT eigenständig prüft und nicht (aus Versehen) falsche Informationen weiterverbreitet. Da sehe ich vor allem eine große Eigenverantwortung. Zudem hat das FZI beispielsweise ein Projekt ins Leben gerufen, das sich der Aufgabe widmet, Fake News mithilfe von KI aufzuspüren: https://www.fzi.de/project/defakts/
Weitere spannende Informationen über Chatbots und wo Sie diese in Ihrem Unternehmen einsetzen können, finden Sie in unserem Blog:
Training und Trainingsdaten
Die Informationen bzgl. des Human Feedbacks und ein Hinweis auf die Auswahl der User findet sich im folgenden Paper (ChatGPT ist ein „Zwilling“ von InstructGPT): https://arxiv.org/pdf/2203.02155.pdf.
Die Informationen bzgl. des Human Feedbacks und ein Hinweis auf die Auswahl der User findet sich im folgenden Paper (ChatGPT ist ein „Zwilling“ von InstructGPT): https://arxiv.org/pdf/2203.02155.pdf.
Ein Ansatz Vorurteile (Bias), toxische Inhalte etc. zu reduzieren wird mithilfe von menschlichem Feedback (Reinforcement Learning from Human Feedback) während der Trainingsphase erreicht.
Einsatz von ChatGPT im Unternehmen
Die Urheberrechtsfrage ist noch nicht geklärt. Aber aus Gründen der Authentizität des eigenen Contents, würden wir empfehlen, Texte von ChatGPT, als einen Ansatzpunkt zu nutzen und diesem dann eine persönliche Note mit eigenen Gedanken und Worten zu verleihen.
Ja, es gibt eine kostenfreie Version von ChatGPT, für die nur ein Profil bei OpenAi erstellt werden muss. Diese ist aber in seiner Verfügbarkeit und dementsprechend auch in seiner Übertragungsstabilität und -sicherheit eingeschränkt. Sind die Server, wegen hoher Nachfrage überlastet, erhält man keinen Zugang zu ChatGPT.
Verlässlicher ist deshalb die Premiumversion ChatGPT Plus für aktuell $20 im Monat. Bei dieser Version erhält man stets Zugriff auf die Server, schnellere Antwortzeiten und Vorabzugriff auf neue Funktionen.
Bisher kann die API kostenfrei genutzt werden. Einzige Restriktion ist die vorherige Anmeldung und bei der kostenfreien Version teilweise Serverprobleme.
Ja, das ist möglich. Azure OpenAI Service wirbt bereits mit Fine-Tuning-Möglichkeiten.
„Azure OpenAI Service“ steht bereits zur Verfügung.
Stand jetzt kann ChatGPT über Azure OpenAI bezogen werden, ob es auch eine „on-premise“ Version geben wird, ist (meines Kenntnisstandes) noch nicht bekannt.
Ist es möglich eine unternehmenseigene, autarke, selbstlernende zu erzeugen?
Es ist definitiv möglich, eigene Sprachmodelle zu trainieren, die dann auch auf den individuellen Themenbereich fokussiert sind. Bei Bedarf sprechen Sie uns gerne an.
Urheberrecht und Quellenangaben
Es kann nicht sichergestellt werden. Daher wird auch bei anderen generativen Modellen (Generative Adversarial Network, kurz GAN) wie Stable Diffusion etc. über die Urheberrechtsfrage gestritten und es gibt bereits erste Gerichtsverfahren: https://netzpolitik.org/2023/sammelklagestable-diffusion-bild-generator-rechtsstreit/.
Die Urheberrechtsfrage ist noch nicht geklärt. Aber aus Gründen der Authentizität des eigenen Contents, würden wir empfehlen, Texte von ChatGPT als einen Ansatzpunkt zu nutzen und diesem dann eine persönliche Note mit eigenen Gedanken und Worten zu verleihen.
Es wäre aus unserer Sicht wünschenswert. Die technische Umsetzbarkeit ist allerdings eine komplexe Aufgabe, da enorm viel Speicher zur Laufzeit zur Verfügung stehen müsste, um diese ganzen Referenzen zu verwalten.
Nachhaltigkeit und Wettbewerb
Über eine einzelne Anfrage habe ich keine Informationen. Hier ist aber ein interessantes Paper zu KI & CO₂ Emissionen:
https://arxiv.org/ftp/arxiv/papers/2104/2104.10350.pdf
Google hat bereits mit „LaMDA“ ein ähnlich starkes Sprachmodell, dem ein (ehemaliger) Google Mitarbeiter sogar ein Bewusstsein unterstellt hat. Meta arbeitet ebenfalls bereits an großen Sprachmodellen (bspw. Galactica).
Allerdings sind beide Unternehmen etwas vorsichtiger, was den „öffentlichen“ Einsatz anbelangt, da diese Modelle (genau wie ChatGPT) teilweise Falschaussagen treffen und das imageschädigend sein könnte. Aufgrund von falschen Texten wurde Galactica auch relativ schnell wieder der Öffentlichkeit entzogen.
Ja, zahlreiche Anbieter haben spezialisierte Chatbots in ihrem Angebot; Jasper Chat, Bing Chat, YouChat, neevaAI, Google LaMDA bzw. Google Bard und Sparrow von Deepmind sind dabei nur einige Beispiele.
In unserem Data & AI Glossar-Eintrag zu ChatGPT finden Sie eine weitere informative Übersicht zu den Funktionen und Zugangsmöglichkeiten.
0 Kommentare