ChatGPT hat weltweit die Wahrnehmung der Fähigkeiten künstlicher Intelligenz verändert. Im Großen und Ganzen wurde es von ungeschickt und roboterhaft zu einer unheimlich menschenähnlichen Art und Weise.
Wie wirkt sich dies auf die Möglichkeiten im Übersetzungsbereich aus?
Sind Menschen nicht mehr notwendig?
Kann ich einfach alles durch ChatGPT verarbeiten lassen und nie wieder einen Cent für meine Übersetzungen ausgeben?
Dieser Artikel wird das Potenzial und die Grenzen von Übersetzungen untersuchen, die von großen Sprachmodellen angeboten werden.
Möchten Sie mit ChatGPT sprechen?
Das Sprechen mit einem generativen, vorab trainierten Transformer wie GPT3/4 oder anderen ähnlich leistungsfähigen KI-Chatbots kann sowohl aufschlussreich als auch beängstigend sein. Eine Antwort auf Ihre Aufforderung kann zu Überraschung und Benutzerenttäuschung führen. GPT 4 ist in der Lage, die BAR-Prüfung im 90. Perzentil zu bestehen und ist auch in der Lage, große Fehler zu machen, wie das Erfinden falscher Fakten oder das Akzeptieren unlogischer Argumente.
Es hängt alles von Parametern und Trainingsdaten ab, aber in Englisch zeigen GPT 3 und 4 eindeutig das Potenzial, wie wir unsere Arbeitsplätze und beruflichen Tätigkeiten verändern könnten.
Aber wie funktioniert es in anderen Sprachen?
Wie funktioniert es mit mehr Kontext oder weniger Kontext?
Ist GPT 3 signifikant anders als GPT 4?
Maschinelle Übersetzung, aber ohne ein maschinelles Übersetzungssystem
Die Geschichte der maschinellen Übersetzung hat deutlich die Grenzen der Technologie in unserer Welt aufgezeigt. Als die Ideen in den 80er Jahren erstmals vorgestellt wurden, waren einige unglaublich optimistisch und glaubten, dass keine menschliche Hilfe mehr nötig sei, um genaue Übersetzungen zu erstellen.
Es war nur eine Frage der Weiterentwicklung verschiedener statistischer und regelbasierter Modelle, um Übersetzungen zu erstellen, die sich anhören, wie ein Mensch natürlich sprechen würde.
Aber das war eindeutig nicht der Fall. Modelle verbessert und Zugang zum Wissen verbessert, aber die Sprache erwies sich einfach als zu nuanciert und mit Ausnahmen durchsetzt, so dass Ingenieure sie einer Maschine erklären konnten. Modelle basierten nicht auf einem Prompt-und-Antwort-Dialog, sondern auf einer einzelnen Ausgabe für Eingabe in englischem Text oder einer anderen Sprache, die vom System erfasst wird.
Die Auswahl eines Modells und die Schätzung der Übersetzungskosten
Bei der Auswahl eines Modells für die Übersetzung mit GPT-3 scheint es zwar der erste logische Schritt zu sein, aber es ist durchaus möglich, dass es der letzte Schritt in Ihrer Übersetzungsreise sein sollte.
Sie können beispielsweise mit reinem Text arbeiten und ihn einfach in ein GPT-3 einfügen oder mit der API von OpenAI arbeiten, um Ihren Inhalt zu importieren und zu exportieren. Das wird jedoch einige der wichtigsten Herausforderungen bei Übersetzungen übersehen.
Das erste offensichtliche Beispiel ist zum Beispiel der Verlust der Formatierung. Wenn Sie sich tiefer in große Sprachmodelle und andere künstliche Intelligenzsysteme vertiefen, wird auch die Bedeutung des Wissensmanagements immer wichtiger.
Wie werden Sie frühere Übersetzungen verwalten?
Wie werden Sie Ihren Motor optimieren, damit er Ihre Terminologie oder Ihr SEO berücksichtigt?
AI-Chatbots, so leistungsfähig sie auch sein mögen, wurden ursprünglich nicht als Übersetzungsmaschinen konzipiert. GPT 3-Übersetzung ist in so vielen Kontexten erstaunlich. Es kann seinen Benutzern oft Übersetzungen präsentieren, die menschlich erscheinen und sogar besser klingen können als der englische Text oder jede andere Originalsprache, aber allein wird es nahezu unmöglich sein, in großem Umfang oder wiederkehrend zu arbeiten.
Ein Übersetzungsmanagementsystem, das tief in künstliche Intelligenz integriert ist, wird benötigt, um sicherzustellen, dass Sie die wesentlichen Vorteile nutzen können, die von gpt 3 oder 4 präsentiert werden.
Möchten Sie mit Character.ai sprechen, der neuesten KI der Schöpfer von Google LaMDA?
Chatbot-Gespräche wie Character.ai, die von Googles LaMDA unterstützt werden, zeigen deutlich, wie es möglich ist, eine menschenähnliche Unterhaltung ohne einen spezifischen Kontext zu führen. Es ist möglich, mit einem Charakter zu sprechen, den Sie entweder erstellen oder vorab auswählen können, auf eine Weise, die manchmal wirklich menschlich erscheint.
Es ist wichtig, über LaMDA zu sprechen, weil Menschen oft eine begrenzte Perspektive darauf haben, wie viele Systeme es gibt. Hier sind ein paar weitere Beispiele:
BERT: Bidirektionale Encoder-Repräsentationen von Transformers, entwickelt von Google AI
- XLNet: Generalisierte autoregressive Vorabtrainierung für Sprachverständnis, entwickelt von der Carnegie Mellon University und Google AI
- XLM-RoBERTa: Ein robust optimierter BERT-Vorverarbeitungsansatz, entwickelt von Facebook AI
- Cohere: Ein LLM, der für spezifische Domänen und Aufgaben feinabgestimmt werden kann, entwickelt von Cohere AI
- GLM-130B: Generative LLM mit 130 Milliarden Parametern, entwickelt von Huawei
- Meta LLaMA AI: Meta LLM-Architektur mit 1,6 Billionen Parametern, entwickelt von Meta AI
- Chinchilla: Ein großes Sprachmodell, das natürlichen Text in mehreren Sprachen generieren kann, entwickelt von LG AI Research
- LaMDA: Sprachmodell für Dialoganwendungen, entwickelt von Google Research
- PaLM: Das Pre-Training eines Autoencoding&Autoregressive Language Model für kontextabhängige Generierung, entwickelt von DeepMind
GPT 3 war das erste Modell, das es geschafft hat, die öffentliche Wahrnehmung zu durchbrechen, dass künstliche Intelligenz nur etwas für Ingenieure ist. Gpt 3 war das erste Sprachmodell, das der Welt gezeigt hat, dass Science-Fiction doch nicht so sehr Fiktion ist.
Eingabetypen in GPT-4 und GPT-3
Wenn es um Übersetzungen geht, kann ein Benutzer Text in die Chat-Schnittstelle von GPT-3 oder 4 eingeben (sie haben die gleiche Benutzeroberfläche) und übersetzten Text erhalten, wenn er von einer Übersetzungsaufforderung begleitet wird. Ein Benutzer ist jedoch auf reinen Text beschränkt.
Jedes Formatieren geht verloren und die einzige Möglichkeit, dies zu erhalten, besteht darin, mit einem Übersetzungsmanagementsystem wie BWX zu arbeiten, das Dateien nativ analysiert, sodass Informationen mit GPT 3 und 4 ausgetauscht werden können, ohne dass Formatierungen oder andere metatextuelle Informationen verloren gehen.
Feinabstimmung der OpenAI-Modelle
Die Qualität der Ausgabe einer Übersetzung basiert hauptsächlich auf der Raffinesse des Sprachmodells, die hauptsächlich auf Parametern und der Größe der Trainingsdaten basiert. Aber es basiert auch auf der Qualität der Aufforderung sowie dem zusätzlichen Kontext, der von einer Person (menschlicher Benutzer) bereitgestellt wird.
Je mehr Anleitung das Sprachmodell erhält, desto besser ist gpt 3 oder 4 in der Lage, Wörter zu generieren, die für den Leser Sinn ergeben.
Wenn Sie in Ihrer Anfrage zum Beispiel beschreiben, dass Sie möchten, dass die Übersetzung informell und eingängig klingt, wird gpt 3 auf entsprechende Weise "antworten" und sich die Freiheit nehmen, seine Antwort auf eine Weise zu schreiben, die mit Ihrer Anfrage resoniert.
Deshalb holen unsere Machine-Learning-Ingenieure bei Bureau Works das Beste aus dem Zero-Shot- und Few-Shot-Learning heraus.
Ohne zu sehr ins Detail zu gehen, was die Mechanik der verschiedenen Arten des maschinellen Lernens betrifft und deren Fähigkeit, Nachrichten zu interpretieren und auf eine für ihre Benutzer sinnvolle Weise zu antworten, haben wir bei Bureau Works uns darauf konzentriert, Antworten von Grund auf aufzubauen.
KI muss in der Lage sein, Nachrichten zu schreiben, die in den Ideen und Absichten der Benutzer kontextualisiert sind.
Wenn der Benutzer beispielsweise möchte, dass die Übersetzung natürlich klingt, auch wenn sie semantisch vom Originaltext abweicht, kann die Antwort seltsam erscheinen, aber sie kann perfekt dafür sein, wie eine Person im Internet reagieren sollte, wenn sie den von der KI generierten Output liest.
BWX ist von Natur aus in der Lage, eine Interaktion mit gpt 3 oder 4 sowie anderen KI-Modellen durchzuführen, die Folgendes berücksichtigen werden:
- frühere Übersetzungen, die in Ihrem Übersetzungsspeicher gespeichert sind
- Terminologie
- Bereich
- Formatierung/Tagging
Durch dieses Feintuning sind wir in der Lage, eine Umgebung zu schaffen, in der das System Daten verarbeiten und eine Antwort liefern kann, die im Kontext dieser Interaktion besser den Erwartungen entspricht.
Eine fein abgestimmte Nachricht an gpt 3 oder 4 wird Wörter generieren, die ähnliche Konzepte beschreiben, jedoch mit einem Dreh, der den entscheidenden Unterschied ausmacht. Werfen Sie einen Blick auf das folgende Beispiel:
Ursprüngliche Zusammenfassung:
Jetzt mit Apple Twist:
Bureau Works ist ein leistungsstarkes Übersetzungsmanagementsystem, mit dem Sie jedes Übersetzungs- und Lokalisierungsprojekt mühelos und selbstbewusst bewältigen können. Es ist cloud-basiert, so dass Sie jederzeit und überall darauf zugreifen können.
Jetzt mit Kurt Vonnegut Twist:
Bureau Works kümmert sich um Übersetzung und Lokalisierung. Wir denken, dass du das auch tun solltest. Es ist nicht einfach, mit Ihrer Botschaft ein globales Publikum zu erreichen. Aber wir können Ihnen dabei helfen, es besser und schneller als je zuvor zu tun.
Jetzt mit Gen Z-Dreh:
Bureau Works ist genial. Es ist ein System, das Ihnen hilft, Ihre Sachen online zu übersetzen und anzupassen. Sie können es für alles verwenden: Websites, Apps, E-Mails, Dokumente usw. Sie können kostenlos starten oder einen Plan wählen, der zu Ihrer Stimmung passt.
Durch diese Antworten kann gpt 3 auf viele verschiedene Arten über dasselbe Thema sprechen. Es ist die Natur des Schreibens. Das gleiche Konzept kann auf unzählige verschiedene Arten ausgedrückt werden und jede Art hat die Fähigkeit, verschiedene menschliche Emotionen hervorzurufen, unabhängig davon, ob sie von einer KI konzipiert wurden oder nicht.
GPT-4 vs. Die Fähigkeiten des GPT-3-Modells
GPT4 ist eine natürliche Weiterentwicklung von GPT 3. GPT 4 hat etwa 570-mal mehr Parameter als GPT 3 - 175 Milliarden gegenüber. 100 Billionen. Dies führt zu einem konsistenteren Dialog und weniger Fehlern beim Vergleich der verschiedenen KI-Modelle. GPT 4 kann auch visuelle Eingaben analysieren. Beide Modelle wurden nicht darauf trainiert, zu übersetzen, aber beide können unglaublich natürlich klingende Texte Wort für Wort schreiben.
Die Definition des Kontexts von GPT-4 vs. GPT-3 Konversation
Der Kontext bezieht sich auf alle Informationen, die den Text informieren, aber nicht der Text selbst sind. In einem Bedeutungsgeflecht bezieht sich der Kontext auf alle Fäden, die das Geflecht als Ganzes unterstützen, während der Text den zentralen Teil des Geflechts darstellt.
Wenn es um KI und Bedeutung im Allgemeinen geht, ändert sich der Kontext alles. Wenn ich zum Beispiel der KI sage, dass oben unten ist und unten oben ist, als Kontext zum Beispiel, und dann der KI sage, dass ich mich im siebten Stock befinde und zum achten Stockwerk möchte, wird die KI mir erklären, dass ich nach unten gehen muss.
Die KI wird dies sagen, weil ich ihr Kontext gegeben habe, der bestimmt, wie sie den Text angeht. Dies ist ein extremes Beispiel für den Kontext, aber in Übersetzungsgesprächen mit einem KI-Modell wie GPT-3 kann ich den Kontext als bestimmte Wörter definieren, die verwendet oder vermieden werden sollten, bestimmte Tonlagen, denen gefolgt werden sollte, wie formell oder informell, oder Informationen über die übergeordneten Ziele für den Text, die GPT-3 berücksichtigen sollte.
Einrichten der API
Wenn es darum geht, mit gpt 3 oder 4 über BWX zu arbeiten, müssen Sie sich keine Sorgen um die Einrichtung der API machen. BWX verfügt über eine native API mit Zugriff auf gpt 3-Endpunkte und ein proprietäres Framework, das den Austausch von Informationen in diesem Prozess mit gpt 3 oder 4 auf effektivste Weise ermöglicht.
Das Schöne daran ist, dass unsere API auch andere KI-Modelle neben gpt 3 nutzt, wie zum Beispiel LaMDA und LLaMA. Unsere API verwendet eine Kombination von Machine-Learning-Modellen, um die Relevanz des Schreibens von gpt 3 und 4 unabhängig von der verwendeten Eingabeaufforderung zu maximieren.
Möchten Sie GPT-3 verwenden?
Die Verwendung von GPT 3 oder 4 mit BWX ist sehr unkompliziert. Unsere Webintegration ist als Standard-Einstellung in unserer Web-App aktiviert. Dieser Artikel untersucht nur den grundlegenden Überblick und die Fähigkeiten unserer GPT 3-Webintegration, aber Sie können weitere Informationen in unserem Web-Support-Handbuch unter support.bureauworks.com
finden. Sie können sich für eine kostenlose Testversion anmelden und natürlich können Sie jederzeit vor Ablauf Ihrer Testphase kündigen und es fallen keine Kosten an.
GPT-3 gegen. GPT-4 - Wichtige Erkenntnisse
Was GPT 3 vs. betrifft. GPT 4 angewendet auf Übersetzungen, konnten wir keine dramatischen Abweichungen in den Schreibbeispielen feststellen. Jedes Modell ist in der Lage, relevante Gespräche zu führen.
Wir haben einen 55-seitigen Bericht mit Beispielen von GPT-3, der hier heruntergeladen werden kann, falls Sie interessiert sind. Außerdem arbeiten wir an einem neuen Bericht, der detailliert vergleichen wird, wie jedes Modell abschneidet.
Sobald diese Forschungsvorschau verfügbar ist, werden wir Sie über unseren Newsletter benachrichtigen, falls Sie interessiert sind. Jedes Modell, unabhängig davon, wie es trainiert wird, sei es durch Few-Shot-, Zero-Shot- oder andere Arten von maschinellem Lernen, ist in der Lage, Feeds zu produzieren, die Internetnutzer aufgrund ihrer unheimlich menschlichen Natur manchmal verblüffen können.
Laut OpenAI ist GPT 4 in bestimmten Szenarien deutlich besser als GPT 3, aber was das Schreiben betrifft, ist das Niveau relativ ähnlich. Mehr folgt, wenn wir unseren detaillierten Bericht veröffentlichen, in dem wir jedes Modell vergleichen.
Möchten Sie Jurassic-1 verwenden, das größte und anspruchsvollste Sprachmodell, das jemals für den allgemeinen Gebrauch von Entwicklern veröffentlicht wurde?
Laut Bing handelt es sich bei "Jurassic-1" um den Namen, der zwei auto-regressive Natural Language Processing (NLP)-Modelle beschreibt, die von AI21 Labs aus Israel entwickelt wurden.1. Jurassic-1-Modelle sind äußerst vielseitig und können sowohl menschenähnlichen Text generieren als auch komplexe Aufgaben wie Fragebeantwortung, Textklassifizierung und viele andere lösen23.
Jurassic-1-Modelle gibt es in zwei Größen, wobei die Jumbo-Version mit 178 Milliarden Parametern das größte und anspruchsvollste Sprachmodell ist, das jemals für den allgemeinen Gebrauch von Entwicklern veröffentlicht wurde23.
GPT 4 ist ein KI-Modell mit fast 3-mal mehr Parametern als Jurassic-1 JUMBO. Jurassic-1 war früher größer als gpt 3, wurde aber von gpt 4 übertroffen. Größer als gpt 3 zu sein, bedeutete nicht zwangsläufig, dass es bessere Ergebnisse liefern konnte.
Es war schließlich das geschulte GPT-3-Modell, das die Welt dazu brachte, ihre Augen für das wahre Web und die realen Anwendungen eines KI-Modells zu öffnen. Was die Integrationen betrifft, deuten unser aktueller Stand und unsere Prognosen darauf hin, dass BWX mit mehreren Modellen integriert wird, um das Beste aus jedem Modell zu extrahieren.
Kosten der Verwendung von GPT-4 gegenüber. GPT-3
Für Informationen zu den Kosten der Open AI API besuchen Sie bitte: https://openai.com/pricing
Was BWX betrifft, gibt es keinen Unterschied in der Arbeit mit GPT 3 gegenüber. GPT 4. Unsere API leitet den Inhalt natürlich durch das effektivste Modell aus einer Kosten-Nutzen-Perspektive.
Dieser Artikel geht nicht detailliert darauf ein, wie unsere Integration mit GPT-3 funktioniert, aber Sie können es in unserer Support-Bibliothek hier finden: http://support.bureauworks.com
GPT-4 ist derzeit teurer als GPT-3, da dieses Modell wesentlich mehr Rechenleistung benötigt, um seine Antworten zu generieren.
GPT-3.5 Turbo kostet derzeit 0,002 $ / 1.000 Token, während das 32k GPT 4 Prompt-Modell etwa 0,06 $ / 1.000 Token0,12 $ / 1.000 Token kostet, ungefähr 30 Mal mehr.
Allerdings beinhaltet der BWX-Plan für Übersetzer die GPT-Integration als Teil des Grundpreises, der bei 9 $ pro Benutzer beginnt und eine maximale Verarbeitung von 200.000 Wörtern pro Benutzer pro monatlichem Zyklus ermöglicht.
Null-Shot-Übersetzung
Basierend auf unseren bisherigen Studien erzeugen Null-Shot-Übersetzungen keine konsistenten und zuverlässigen Ergebnisse. So erstaunlich gpt 3 auch als vortrainiertes Sprachmodell sein mag, führt eine Übersetzung ohne zusätzlichen Kontext zu gemischten Ergebnissen.
Wir erzielen bessere Ergebnisse entweder in hochqualifizierten Umgebungen oder in solchen, die durch Few-Shot-Learning angetrieben werden.
Mit der Null-Schritt-Übersetzung sind sowohl gpt 3 als auch gpt 4 wahrscheinlich inkonsistente Ergebnisse zu liefern. Wie dieser Artikel gezeigt hat, werden sie beide durch Webinhalte geschult und werden für dieselbe Eingabe und Aufforderung gelegentlich unterschiedliche Ausgaben produzieren, und zwar absichtlich.
Die Übersetzung dreht sich alles darum, Wissensbasen zu nutzen und aufzubauen, um Markenkonsistenz, SEO, Verständlichkeit und andere Anforderungen für die Benutzerakzeptanz zu fördern.
Möchten Sie es selbst bauen?
Das Erstellen einer Integration mit GPT 3 ist relativ einfach. Die API ist gut dokumentiert und die Endpunkte funktionieren gut. Es gibt Herausforderungen im Zusammenhang mit den Rate-Limits, der Textgröße und anderen Einschränkungen der API-Architektur. Aber am wichtigsten ist, den Aufbau einer Integration mit GPT 3 oder 4 zu erleichtern.
Mit dem richtigen Kontext sind GPT 3 oder 4 theoretisch in der Lage, die Integration selbst zu erstellen. Die herausfordernde Aufgabe besteht darin, dass die Integration Ihnen Texteingabe und Textausgabe ermöglichen kann, aber klare Grenzen in Bezug auf die Erhaltung der Formatierung, die Aufrechterhaltung der terminologischen Konsistenz, die Bezugnahme auf in der Vergangenheit übersetztes Material als Referenz, das Lernen aus Benutzereingaben und andere Szenarien hat, die für die Erstellung hochwertiger Übersetzungen im großen Maßstab relevant sind. Kannst du es selbst machen? Sicherlich.
Wird es effektiv und skalierbar sein? Zweifelhaft. Eine der wichtigsten Erkenntnisse bisher aus GPT 3 und 4 ist, dass sie zwar leistungsstark sind und menschenähnlich klingen mögen, aber dennoch Anleitung, Struktur und die richtigen Elemente benötigen, um eine konsistente Spitzenleistung zu erbringen. Deshalb empfehlen wir Ihnen, BWX 14 Tage lang kostenlos auszuprobieren und sich selbst von der Magie zu überzeugen, die Sie aus einer so engen Integration mit GPT in einer Umgebung extrahieren können, die von Grund auf entwickelt wurde, um hochwertige Übersetzungen im großen Maßstab mit minimalem menschlichem Eingriff zu produzieren.