Migliori pratiche

GPT-4 contro GPT-3. Confronto e potenziale dei modelli OpenAI quando si tratta di traduzione

ChatGPT ha cambiato le percezioni in tutto il mondo riguardo alle capacità dell'intelligenza artificiale. In termini generali, è passato dall'essere goffo e robotico all'essere simile all'uomo in un modo inquietante.
Gabriel Fairman
3 min
Sommario

ChatGPT ha cambiato le percezioni in tutto il mondo riguardo alle capacità dell'intelligenza artificiale. In termini generali, è passato dall'essere goffo e robotico all'essere simile all'uomo in un modo inquietante.

In che modo questo influisce sulle possibilità nel settore della traduzione?

Gli esseri umani non sono più necessari?

Posso semplicemente elaborare tutto tramite ChatGPT e non spendere mai un centesimo per le mie traduzioni?

Questo articolo esplorerà le potenzialità e i limiti delle traduzioni offerte dai modelli linguistici di grandi dimensioni.

Vuoi parlare con ChatGPT?

Parlare con un trasformatore pre-addestrato Generativa come GPT3/4 o altri chatbot AI simili può essere sia illuminante che spaventoso. Una risposta alla tua richiesta può provocare sorpresa e sgomento per l'utente. GPT 4 è in grado di superare l'esame di avvocato nel 90° percentile ed è anche capace di commettere enormi errori come fabbricare fatti errati o accettare argomenti illogici.

È tutto contingente ai parametri e ai dati di addestramento, ma in inglese GPT 3 e 4 mostrano chiaramente il potenziale per scuotere il modo in cui affrontiamo i nostri lavori e lavori professionali.

Ma come si comporta in altre lingue?

Come funziona con più o meno contesto?

GPT 3 è significativamente diverso da GPT 4?

Traduzione automatica ma senza un sistema di traduzione automatica

La storia della traduzione automatica ha chiaramente mostrato i limiti della tecnologia nel nostro mondo. Quando le idee furono introdotte per la prima volta negli anni '80, alcuni erano incredibilmente ottimisti riguardo al non richiedere più un essere umano per generare accurate translations.

Era solo una questione di evolvere diversi modelli statistici e basati su regole per Crea traduzioni che suonassero come parlerebbe naturalmente un essere umano.

Ma chiaramente non era così. I modelli sono migliorati e l'accesso alla conoscenza è migliorato, ma il linguaggio si è rivelato troppo sfumato e pieno di eccezioni perché gli ingegneri potessero spiegarlo a una macchina. I modelli non si basavano su un dialogo di richiesta e risposta, ma su un singolo output per l'input in inglese o in qualsiasi altra lingua inclusa nel motore.

Scegliere un modello e stimare un costo di traduzione

Sebbene la scelta di un modello possa sembrare il primo passo logico per tradurre con gpt 3, ad esempio, è molto probabile che sia l'ultimo passo del tuo percorso di traduzione.

Puoi lavorare ad esempio con testo semplice e semplicemente inserirlo in un gpt 3 o lavorare con l'api di openai per importare ed esportare il tuo Contenuto, ma ciò trascurerà alcune delle sfide Principali legate alle traduzioni.

Il primo ovvio, ad esempio, è la perdita di formattazione. Man mano che approfondisci i modelli di linguaggio di grandi dimensioni e altri sistemi di intelligenza artificiale, l'importanza della gestione della conoscenza diventa anche più critica.

Come gestirai le traduzioni passate?

Come affinerai il tuo motore in modo che tenga conto della tua terminologia o del tuo SEO?

I chatbot AI, per quanto potenti possano essere, non sono stati originariamente progettati come motori di traduzione. La traduzione di GPT 3 è sorprendente in così tanti contesti. Può spesso presentare ai suoi utenti traduzioni che sembrano umane e possono suonare anche meglio del testo inglese o di qualsiasi altra lingua originale, ma da solo sarà quasi impossibile operare su larga scala o in modo ricorrente.

Un sistema di gestione delle traduzioni profondamente integrato con l'intelligenza artificiale è necessario per garantire che si estraggano i benefici principali presentati da gpt 3 o 4.

Vuoi parlare con Character.ai, l'ultima intelligenza artificiale dei creatori di Google LaMDA?

Le conversazioni chatbot come Character.ai alimentate da LaMDA di Google mostrano chiaramente come sia possibile avere una conversazione simile a quella umana senza alcun contesto specifico. È possibile parlare con un personaggio che si costruisce o si seleziona in un modo che a volte sembra genuinamente umano.

È importante parlare di LaMDA perché spesso le persone hanno una prospettiva limitata su quanti sistemi ci siano là fuori. Ecco alcuni esempi di altri:
BERT: Rappresentazioni di encoder bidirezionali da trasformatori, sviluppato da Google AI

  • XLNet: Pre-formazione autoregressiva generalizzata per la comprensione del linguaggio, sviluppata dalla Carnegie Mellon University e Google AI
  • XLM-RoBERTa: Un approccio di pre-addestramento BERT robustamente ottimizzato, sviluppato da Facebook AI
  • Cohere: Un LLM che può essere messo a punto per domini e attività specifiche, sviluppato da Cohere AI
  • GLM-130B: Generativa LLM con 130 miliardi di parametri, sviluppata da Huawei
  • Meta LLaMA AI: Architettura Meta LLM con 1,6 trilioni di parametri, sviluppata da Meta AI
  • Chinchilla: Un modello linguistico di grandi dimensioni in grado di generare testo dal suono naturale in più lingue, sviluppato da LG AI Research
  • LaMDA: Modello linguistico per applicazioni di dialogo, sviluppato da Google Research
  • PaLM: Pre-addestramento di un modello linguistico auto-codificante e autoregressivo per la generazione condizionata dal contesto, sviluppato da DeepMind

GPT 3 è stato il primo modello che è riuscito a rompere la percezione pubblica che l'intelligenza artificiale fosse qualcosa solo per gli ingegneri. Gpt 3 è stato il primo modello linguistico che ha mostrato al mondo che la fantascienza non è poi così tanto finzione.

Tipi di input in GPT-4 e GPT-3

Quando si tratta di traduzione, un utente può inserire il testo nell'interfaccia della chat gpt 3 o 4 (hanno la stessa interfaccia utente) e ottenere il testo tradotto quando preceduto da un prompt di traduzione. Tuttavia, l'utente è limitato al testo semplice.

Qualsiasi formattazione verrà persa e l'unico modo per preservarla è lavorare con un sistema di gestione delle traduzioni come Bureau Works che analizza nativamente i file in modo che le informazioni possano essere scambiate con GPT 3 e 4 senza alcuna perdita di formattazione o altre informazioni meta-testuali.

Ottimizzazione dei modelli OpenAI

La Qualità dell'output di una traduzione si basa sulla sofisticazione del modello linguistico, principalmente basato su parametri e dimensioni dei dati di addestramento. Ma si basa anche sulla Qualità del prompt così come sul contesto aggiuntivo fornito da una persona (utente umano).

Più indicazioni riceve il modello linguistico, migliore è la capacità di gpt 3 o 4 di potenziare le parole che hanno senso per il lettore.

Se nel tuo prompt descrivi, ad esempio, che vuoi che la traduzione suoni informale e accattivante, gpt 3 "risponderà" in modo corrispondente e si prenderà la libertà di scrivere la sua risposta in modi che risuonano con il tuo prompt.

Ecco perché in Bureau Works i nostri ingegneri di machine learning ottimizzano al massimo l'apprendimento zero-shot e few-shot.

Senza entrare troppo nei dettagli riguardo ai meccanismi dei tipi di apprendimento automatico e alla sua capacità di interpretare i messaggi e rispondere in modo sensato per i suoi utenti, in Bureau Works ci siamo concentrati sulla costruzione delle risposte dalle fondamenta.

L'AI deve essere in grado di scrivere messaggi contestualizzati all'interno delle idee e degli scopi degli utenti.

Se l'utente, ad esempio, desidera che la traduzione suoni naturale anche se si discosta semanticamente dal cosiddetto testo originale in inglese, la risposta può sembrare strana ma può essere perfetta per il modo in cui una persona su Internet dovrebbe reagire quando legge l'output generato dall'intelligenza artificiale.

Bureau Works è nativamente in grado di gestire un'interazione con gpt 3 o 4, così come con altri modelli di intelligenza artificiale, che terranno conto di:

  • traduzioni passate memorizzate nella tua memoria di traduzione
  • terminologia
  • dominio
  • formattazione/tagging

Attraverso questa messa a punto, siamo in grado di creare un ambiente in cui il sistema può elaborare i dati e fornire una risposta più allineata alle aspettative nel contesto di quell'interazione.

Un messaggio ottimizzato per gpt 3 o 4 genererà parole che descrivono concetti simili con una svolta che fa tutta la differenza. Dai un'occhiata al seguente esempio:

Riassunto originale:

Bureau Works è un sistema di gestione delle traduzioni basato su cloud che trasforma la gestione complessa delle traduzioni e della localizzazione in attività semplici e prevedibili.

Ora con Apple Twist:

Bureau Works è un potente sistema di gestione delle traduzioni che ti permette di gestire qualsiasi progetto di traduzione e localizzazione con facilità e sicurezza. È basato su cloud, quindi puoi accedervi in qualsiasi momento e ovunque.

Ora con il tocco di Kurt Vonnegut:

Bureau Works si occupa di traduzione e localizzazione. Pensiamo che dovresti farlo anche tu. Non è facile raggiungere un pubblico globale con il tuo messaggio. Ma possiamo aiutarti a farlo meglio e più velocemente che mai.

Ora con Gen Z Twist:

Bureau Works è fantastico. È un sistema che ti aiuta a tradurre e localizzare i tuoi contenuti online. Puoi usarlo per qualsiasi cosa: siti web, Applicazioni, e-mail, documenti, ecc. Puoi iniziare gratuitamente o scegliere un piano che si adatti al tuo stile.

È attraverso queste risposte che gpt 3 è in grado di parlare in molti modi diversi della stessa cosa. È la natura della scrittura. Lo stesso concetto può essere espresso in innumerevoli modi diversi e ogni modo ha la capacità di evocare diverse emozioni umane indipendentemente dal fatto che siano state concepite da un'intelligenza artificiale o meno.

GPT-4 contro Capacità del modello GPT-3

GPT4 è un'evoluzione naturale di GPT 3. GPT 4 ha circa 570 volte più parametri di GPT 3 - 175 miliardi contro. 100 mila miliardi. Ciò si traduce in dialoghi più coerenti e meno errori nel confronto dei diversi modelli di intelligenza artificiale. GPT 4 può anche analizzare l'input visivo. Entrambi i modelli non sono stati addestrati a tradurre, ma entrambi sono in grado di scrivere testi dal suono incredibilmente naturale parola per parola.

Definizione del contesto di GPT-4 vs. GPT-3 conversation

Il contesto si riferisce a tutte le informazioni che informano il testo ma non sono il testo stesso. In una rete di significato, il contesto si riferisce a tutti i fili che forniscono assistenza alla rete nel suo insieme, mentre il testo è la parte centrale della rete.

Quando si tratta di intelligenza artificiale, e di significato in generale, il contesto cambia tutto. Se dico all'intelligenza artificiale, per esempio, che su è giù e giù è su come contesto, e poi dico all'intelligenza artificiale che sono al settimo piano e voglio andare all'ottavo piano, l'intelligenza artificiale mi spiegherà che devo scendere.

L'intelligenza artificiale dirà questo perché le ho fornito un contesto che guida il modo in cui si avvicina al testo. Questo è un esempio estremo di contesto, ma nelle conversazioni di traduzione con un modello di intelligenza artificiale come gpt 3, posso definire il contesto come certe parole che dovrebbero essere usate o evitate, certi toni che dovrebbero essere seguiti come formale o informale, o informazioni sugli obiettivi generali per il testo che gpt 3 dovrebbe prendere in considerazione.

Configurazione dell'API

Quando si tratta di lavorare con gpt 3 o 4 tramite Bureau Works, non c'è bisogno di preoccuparsi della configurazione dell'API. Bureau Works ha un'API nativa con accesso agli endpoint di gpt 3 e un framework proprietario che consente di scambiare informazioni in questo processo con gpt 3 o 4 nel modo più efficace possibile.

Il bello è che la nostra API sfrutta anche altri modelli di intelligenza artificiale oltre a gpt 3, come LaMDA e LLaMA. La nostra API utilizza una combinazione di modelli di apprendimento automatico per massimizzare la pertinenza della scrittura di gpt 3 e 4, indipendentemente dal prompt utilizzato.

Vuoi usare GPT-3?

Utilizzare gpt 3 o 4 con Bureau Works è molto semplice. La nostra integrazione web è abilitata come impostazione predefinita nella nostra app web. Questo articolo esplora solo la panoramica di base e le capacità della nostra integrazione web gpt 3, ma puoi trovare ulteriori informazioni nel caso tu sia interessato alla nostra libreria di assistenza web su support.bureauworks.com

Puoi iscriverti per una prova gratuita e, naturalmente, puoi annullare in qualsiasi momento prima della fine del periodo di prova e non ti verrà addebitato nulla.

GPT-3 contro GPT-4 – Principali punti

Per quanto riguarda GPT 3 vs. GPT 4 applicato alle traduzioni, non siamo stati in grado di notare deviazioni drammatiche nella scrittura di esempi. Ogni modello è in grado di produrre conversazioni pertinenti.

Abbiamo un rapporto di 55 pagine pieno di esempi di gpt 3 che può essere scaricato qui nel caso tu sia interessato e stiamo lavorando a un nuovo rapporto che confronterà in dettaglio le prestazioni di ciascun modello.

Non appena questa anteprima della ricerca sarà disponibile, ti avviseremo tramite la nostra newsletter nel caso tu sia interessato. Ogni modello, indipendentemente da come è addestrato, sia attraverso few shot, zero shot o altri metodi di machine learning, è in grado di produrre feed che a volte possono sorprendere gli utenti di internet a causa della loro natura umana sorprendente.

Secondo OpenAI, GPT 4 si comporta notevolmente meglio di GPT 3 in determinati scenari, ma per quanto riguarda la scrittura, il livello è relativamente simile. Ne arriveranno altri quando pubblicheremo il nostro rapporto dettagliato che confronta ogni modello.

Vuoi utilizzare Jurassic-1, il modello linguistico più grande e sofisticato mai rilasciato per l'uso generale da parte degli Sviluppatori?

Secondo Bing, "Jurassic-1 è il nome dato a un paio di modelli di elaborazione del linguaggio naturale (NLP) auto-regressivi sviluppati dai laboratori israeliani AI21 Labs1. I modelli di Jurassic-1 sono altamente versatili, in grado sia di generare testi simili a quelli umani, sia di risolvere compiti complessi come la risposta alle domande, la classificazione del testo e molti altri23.

I modelli Jurassic-1 sono disponibili in due dimensioni, dove la versione Jumbo, con 178 miliardi di parametri, è il modello di linguaggio più grande e sofisticato mai rilasciato per l'uso generale da parte degli Sviluppatori23.

GPT 4 è un modello di intelligenza artificiale con quasi 3 volte più parametri rispetto a Jurassic-1 JUMBO. Jurassic-1 era più grande di gpt 3, ma è stato superato da gpt 4. Essere più grande di gpt 3 non significava che fosse necessariamente in grado di produrre risultati migliori.

Dopotutto, è stato il modello gpt 3 addestrato che ha fatto aprire gli occhi al mondo sulle vere applicazioni web e reali di un modello di intelligenza artificiale. Per quanto riguarda le integrazioni, il nostro stato attuale e le proiezioni indicano che Bureau Works si integrerà con più modelli per estrarre il meglio che ciascun modello offre.

Costo dell'utilizzo di GPT-4 vs. GPT-3

Per informazioni sui costi dell'API di Open AI, visita: https://openai.com/tariffe

Per quanto riguarda Bureau Works, non c'è differenza nel lavorare con GPT 3 rispetto a. GPT 4. La nostra API instrada naturalmente il Contenuto attraverso il modello più efficace da una prospettiva di costi-benefici.

Questo articolo non entra nei dettagli tecnici su come funziona la nostra integrazione con gpt 3, ma può essere trovato sul web nella nostra libreria di assistenza qui: http://support.bureauworks.com

GPT-4 è attualmente più costoso di GPT-3 poiché questo modello utilizza molta più potenza di calcolo per produrre le sue risposte.

GPT-3.5 Turbo attualmente costa $0,002 / 1K token, mentre il modello di prompt GPT 4 da 32k costa $0,06 / 1K token e $0,12 / 1K token, circa 30 volte di più.

Tuttavia, il piano di Bureau Works per Traduttori include l'integrazione GPT come parte del prezzo base che parte da $9 per utente con un'elaborazione massima di 200.000 parole per utente per ciclo mensile.

Traduzione zero-shot

Sulla base dei nostri studi condotti finora, le traduzioni zero-shot non producono risultati coerenti e affidabili. Per quanto gpt 3 possa essere sorprendente come modello linguistico pre-addestrato, la traduzione senza contesto aggiuntivo produce risultati contrastanti.

Troviamo risultati migliori in ambienti altamente addestrati o in quelli guidati dall'apprendimento con pochi esempi.

Con la traduzione zero-shot, è probabile che sia gpt 3 che gpt 4 producano risultati incoerenti. Come ha dimostrato questo articolo, entrambi sono addestrati dal Contenuto web e produrranno output diversi per lo stesso input e prompt occasionalmente per design.

La traduzione riguarda l'utilizzo e lo sviluppo di basi di conoscenza per promuovere la coerenza del Marchio, la SEO, l'intelligibilità e altri requisiti per l'accettazione da parte degli utenti.

Vuoi costruirlo da solo?

Costruire un'integrazione con GPT 3 è relativamente semplice. L'API è ben documentata e gli endpoint funzionano bene. Ci sono sfide relative ai limiti di velocità, alle dimensioni del testo e ad altri vincoli relativi all'architettura API. Ma soprattutto, costruire un'integrazione con GPT 3 o 4 è la parte più facile.

Con il contesto appropriato, GPT 3 o 4 sono entrambi in grado in teoria di creare l'integrazione da soli. La parte impegnativa è che l'integrazione può fornire testo in entrata e testo in uscita, ma avrà limiti chiari riguardo alla conservazione della formattazione, al mantenimento della coerenza terminologica, al riferimento a materiale tradotto in passato come riferimento, all'apprendimento dai contributi degli utenti e ad altri scenari che sono fondamentali per produrre traduzioni di alta Qualità su larga scala. Quindi puoi farlo da solo? Certamente.

Sarà efficace e scalabile? Dubbioso. Uno dei Principale insegnamenti finora da GPT 3 e 4 è che, per quanto Potente possano essere, per quanto possano sembrare umani, richiedono guida, struttura e gli elementi giusti per fornire una prestazione costante al massimo livello. Ecco perché ti consigliamo di provare Bureau Works gratuitamente per 14 giorni e vedere tu stesso la magia che puoi estrarre da un'integrazione così profondamente intrecciata con GPT in un ambiente progettato da zero per produrre traduzioni di alta Qualità su larga scala con un intervento umano minimo.

Unlock the power of glocalization with our Translation Management System.

Unlock the power of

with our Translation Management System.

Sign up today
Gabriel Fairman
Founder and CEO of Bureau Works, Gabriel Fairman is the father of three and a technologist at heart. Raised in a family that spoke three languages and having picked up another three over the course of his life, he has always been fascinated with the role language plays in identity and the creation of meaning. Gabriel loves to cook, play the guitar, tennis, soccer, and ski. As far as work goes, he enjoys being at the forefront of innovation and mobilizing people and teams together toward a mission. In recognition of his outstanding contributions, Gabriel was honored with the 2023 Innovator of the Year Award at LocWorld Silicon Valley.
Traduci due volte più velocemente in modo impeccabile
Inizia
I nostri eventi online!
Unisciti alla nostra community

Prova Bureau Works gratuitamente per 14 giorni

Il futuro è a pochi clic di distanza
Inizia ora
I primi 14 giorni sono a carico nostro
Supporto di prim'ordine