GPT-4 vs. GPT-3. OpenAI-modellers jämförelse och potential när det gäller översättning

ChatGPT har förändrat uppfattningarna runt om i världen när det gäller den artificiella intelligensens möjligheter. I stora drag gick den från att vara klumpig och robotlik till att vara människolik på ett kusligt sätt.
Hur påverkar detta möjligheterna inom översättningsområdet?
Behövs inte människor längre?
Kan jag bara bearbeta allt genom ChatGPT och aldrig spendera en enda krona till på mina översättningar?
Den här artikeln kommer att utforska potentialen och begränsningarna med översättningar som erbjuds av stora språkmodeller.
Vill du prata med ChatGPT?

Att prata med en generativ förtränad transformer som GPT3/4 eller andra liknande kapabla AI-chattbottar kan vara både upplysande och skrämmande. Ett svar på din fråga kan resultera i förvåning och bestörtning hos användaren. GPT 4 kan klara BAR-provet i den 90:e percentilen och kan också göra stora misstag som att fabricera felaktiga fakta eller acceptera ologiska argument.
Det beror helt på parametrar och träningsdata, men på engelska visar GPT 3 och 4 tydligt potentialen att förändra hur vi utför våra jobb och professionella jobb.
Men hur presterar det på andra språk?
Hur fungerar det med mer eller mindre kontext?
Skiljer sig GPT 3 avsevärt från GPT 4?
Maskinöversättning but without a maskinöversättning system

The history of maskinöversättning has clearly shown the limits of technology in our world. När idéerna först introducerades på 80-talet, var vissa otroligt optimistiska om att det inte längre skulle krävas en människa för att generera korrekta översättningar.
Det var bara en fråga om att utveckla olika statistiska och regelbaserade modeller för att Skapa översättningar som lät som en människa naturligt skulle tala.
Men så var uppenbarligen inte fallet. Modellerna förbättrades och tillgången till kunskap förbättrades, men språket visade sig vara för nyanserat och fullt av undantag för att ingenjörer skulle kunna förklara det för en maskin. Modellerna baserades inte på en prompt-and-response-dialog utan på en enda utdata för inmatning i engelsk text eller något annat språk som omfattas av motorn.
Att välja en modell och uppskatta en översättningskostnad
Även om det kan verka som det första logiska steget att översätta med gpt 3, är det mycket möjligt att det bör vara det sista steget i din översättningsresa.
Du kan till exempel arbeta med vanlig text och helt enkelt infoga den i en gpt 3 eller arbeta med openai's api för att importera och exportera ditt Innehåll, men det kommer att förbise några av de Viktiga utmaningarna kring översättningar.
Den första uppenbara är till exempel förlusten av formatering. När du gräver djupare in i stora språkmodeller och andra artificiella intelligenssystem blir vikten av kunskapshantering också mer kritisk.
Hur kommer du att hantera tidigare översättningar?
Hur kommer du att finjustera din motor så att den tar hänsyn till din terminologi eller din SEO?
AI-chattbottar, hur kraftfulla de än må vara, var inte ursprungligen designade som översättningsmotorer. GPT 3-översättning är fantastisk i så många sammanhang. Det kan ofta presentera sina användare med översättningar som verkar mänskliga och kan låta ännu bättre än den engelska texten eller något annat originalspråk, men i sig självt kommer det att vara nästan omöjligt att operera i stor skala eller återkommande.
Ett hanteringssystem för översättning som är djupt integrerat med artificiell intelligens behövs för att säkerställa att du drar nytta av de viktiga fördelarna som presenteras av gpt 3 eller 4.
Vill du prata med Character.ai, den senaste AI:n från skaparna av Google LaMDA?
Chatbot-konversationer som Character.ai som drivs av Googles LaMDA visar tydligt hur det är möjligt att ha en människoliknande konversation utan något specifikt sammanhang. Det är möjligt att prata med en karaktär som du antingen bygger eller väljer i förväg på ett sätt som ibland verkar genuint mänskligt.
Det är viktigt att prata om LaMDA eftersom människor ofta har en begränsad uppfattning om hur många system som finns där ute. Här är några exempel på andra:
BERT: Representationer av dubbelriktad kodare från Transformers, utvecklade av Google AI
- XLNet: Generaliserad autoregressiv förträning för språkförståelse, utvecklad av Carnegie Mellon University och Google AI
- XLM-RoBERTa: En robust optimerad BERT-förträningsmetod, utvecklad av Facebook AI
- Cohere: En LLM som kan finjusteras för specifika domäner och uppgifter, utvecklad av Cohere AI
- GLM-130B: Generativ LLM med 130 miljarder parametrar, utvecklad av Huawei
- Meta LLaMA AI: Meta LLM-arkitektur med 1,6 biljoner parametrar, utvecklad av Meta AI
- Chinchilla: En stor språkmodell som kan generera naturligt klingande text på flera språk, utvecklad av LG AI Research
- LaMDA: Språkmodell för dialogapplikationer, utvecklad av Google Research
- PaLM: Förträning av en Autoencoding&Autoregressive Language Model för kontextbetingad generering, utvecklad av DeepMind
GPT 3, var den första modellen som lyckades bryta den allmänna uppfattningen att artificiell intelligens var något som bara var för ingenjörer. Gpt 3 var den första språkmodellen som visade världen att science fiction trots allt inte är så mycket fiktion.
Inmatningstyper i GPT-4 och GPT-3
När det gäller översättning kan en användare mata in text i chattens gpt 3- eller 4-gränssnitt (de har samma användargränssnitt) och få tillbaka översatt text när den föregås av en översättningsprompt. En användare är dock begränsad till vanlig text.
All formatering kommer att gå förlorad och det enda sättet att bevara den är genom att arbeta med ett hanteringssystem för översättning såsom Bureau Works som inbyggt tolkar filer så att information kan utbytas med GPT 3 och 4 utan att någon formatering eller annan metatextuell information går förlorad.
Finjustering av OpenAI-modeller
Kvaliteten på en översättnings resultat baseras på språkmodellens sofistikering, huvudsakligen baserat på parametrar och storleken på träningsdata. Men det är också baserat på Kvaliteten på uppmaningen samt det ytterligare sammanhang som tillhandahålls av en person (mänsklig användare).
Ju mer vägledning språkmodellen får, desto bättre kan gpt 3 eller 4 driva ord som är meningsfulla för läsaren.
Om du till exempel beskriver i din uppmaning att du vill att översättningen ska låta informell och catchy, kommer gpt 3 att "prata" tillbaka på ett motsvarande sätt och ta sig friheten att skriva sitt svar på ett sätt som resonerar med din uppmaning.
Det är därför som våra maskininlärningsingenjörer på Bureau Works får ut det bästa av zero-shot och few-shot learning.
Utan att gå in för mycket på detaljer om mekaniken i maskininlärningstyper och dess förmåga att tolka meddelanden och svara på ett sätt som är meningsfullt för sina användare, har vi på Bureau Works fokuserat på att bygga svar från grunden.
AI måste kunna skriva meddelanden som är kontextualiserade inom användarnas idéer och syften.
Om användaren till exempel vill att översättningen ska låta naturlig även om den avviker semantiskt från den ursprungliga så kallade engelska texten, kan svaret verka konstigt men det kan vara perfekt för hur en person på internet ska reagera när de läser utdata som genereras av ai:n.
Bureau Works kan naturligt hantera en interaktion med gpt 3 eller 4 samt andra AI-modeller som kommer att ta hänsyn till:
- tidigare översättningar lagrade i ditt översättningsminne
- terminologi
- domän
- formatering/taggning
Genom denna finjustering kan vi skapa en miljö där systemet kan bearbeta data och ge ett svar som är mer i linje med förväntningarna inom ramen för den interaktionen.
Ett finjusterat budskap till gpt 3 eller 4 kommer att generera ord som beskriver liknande begrepp med en twist som gör hela skillnaden. Ta en titt på följande exempel:
Ursprunglig sammanfattning:
Nu med Apple Twist:
Bureau Works är ett kraftfullt hanteringssystem för översättning som låter dig hantera alla översättnings- och lokaliseringsprojekt med lätthet och självförtroende. Den är molnbaserad, så du kan komma åt den när som helst och var som helst.
Nu med Kurt Vonnegut-twist:
Bureau Works bryr sig om översättning och lokalisering. Vi tycker att du också borde göra det. Det är inte lätt att nå en global publik med ditt budskap. Men vi kan hjälpa dig att göra det bättre och snabbare än någonsin tidigare.
Nu med Gen Z-twist:
Bureau Works är grym. Det är ett system som hjälper dig att översätta och lokalisera dina saker online. Du kan använda det för vad som helst: webbplatser, Appar, e-postmeddelanden, dokument, etc. Du kan börja gratis eller välja en plan som passar din stil.
Det är genom dessa svar som gpt 3 kan prata på många olika sätt om samma sak. Det ligger i skrivandets natur. Samma koncept kan uttryckas på otaliga olika sätt och varje sätt har förmågan att framkalla olika mänskliga känslor oavsett om de är tänkta av en AI eller inte.
GPT-4 jämfört med GPT-3-modellens kapacitet
GPT4 är en naturlig utveckling av GPT 3. GPT 4 har cirka 570 gånger fler parametrar än GPT 3 - 175 miljarder jämfört med. 100 biljoner. Detta resulterar i en mer konsekvent dialog och färre fel när man jämför de olika AI-modellerna. GPT 4 kan också analysera visuell input. Båda modellerna är inte tränade att översätta, men båda kan skriva otroligt naturligt klingande texter ord för ord.
Definiera sammanhanget för GPT-4 vs. GPT-3-konversation
Kontext avser all information som informerar texten men som inte är själva texten. I en väv av mening, syftar kontext på alla trådar som supportar väven som helhet medan text är den centrala delen av väven.
När det kommer till AI, och mening i allmänhet, förändrar kontexten allt. Om jag till exempel säger till ai:n att upp är ner och ner är upp som kontext och sedan säger till ai:n att jag är på sjunde våningen och vill gå till åttonde våningen, kommer ai:n att förklara för mig att jag måste gå ner.
AI:n kommer att säga detta eftersom jag har gett den ett sammanhang som styr hur den närmar sig texten. Detta är ett extremt exempel på kontext, men i översättningssamtal med en AI-modell som gpt 3 kan jag definiera kontexten som vissa ord som bör användas eller undvikas, vissa toner som bör följas, såsom formell eller informell, eller information om de övergripande målen för texten som gpt 3 bör ta hänsyn till.
Ställa in API:et

När det gäller att arbeta med gpt 3 eller 4 genom Bureau Works, behöver du inte oroa dig för att ställa in API:et. Bureau Works har ett inbyggt API med tillgång till gpt 3-endpoints och ett proprietärt ramverk som möjliggör att information i denna process kan utbytas med gpt 3 eller 4 på det mest effektiva sättet möjligt.
Det fina är att vårt API även utnyttjar andra AI-modeller än gpt 3, såsom LaMDA och LLaMA. Vårt API använder en kombination av maskininlärningsmodeller för att maximera relevansen av gpt 3- och 4-skrivning oavsett vilken uppmaning som används.

Vill du använda GPT-3?
Att använda gpt 3 eller 4 med Bureau Works är mycket enkelt. Vår webbintegration är aktiverad som standardinställning i vår webbapp. Denna artikel utforskar endast den grundläggande översikten och kapaciteterna för vår gpt 3-webbintegration, men du kan hitta mer information om du är intresserad av vårt webbsupportbibliotek på support.bureauworks.com
Du kan registrera dig för en gratis provperiod och självklart kan du avbryta när som helst innan slutet av din provperiod och du kommer inte att debiteras.
GPT-3 jämfört med GPT-4 – Viktiga slutsatser
As far as GPT 3 vs. GPT 4 tillämpat på översättningar har vi inte kunnat märka dramatiska avvikelser i skrivexempel. Varje modell kan producera relevanta konversationer.
Vi har en 55-sidig rapport fylld med exempel från gpt 3 som kan laddas ner här om du är intresserad och vi arbetar på en ny rapport som kommer att jämföra i detalj hur varje modell presterar.
Så snart denna forskningsförhandsvisning är tillgänglig kommer vi att meddela dig via vårt nyhetsbrev om du är intresserad. Varje modell, oavsett hur den är tränad, vare sig genom få skott, noll skott eller andra typer av maskininlärningsmetoder, är kapabel att producera flöden som ibland kan förvåna internetanvändare på grund av deras kusliga mänskliga natur.
Enligt OpenAI presterar GPT 4 dramatiskt bättre än GPT 3 i vissa scenarier, men när det gäller skrivandet är nivån relativt likartad. Mer kommer när vi publicerar vår detaljerade rapport som jämför varje modell.
Vill du använda Jurassic-1, den största och mest sofistikerade språkmodellen som någonsin släppts för allmänt bruk av Utvecklare?
Enligt Bing, "Jurassic-1 är namnet på ett par auto-regressiva Natural Language Processing (NLP) modeller som utvecklats av Israels AI21 Labs1. Jurassic-1-modeller är mycket mångsidiga och kan både generera människoliknande text och lösa komplexa uppgifter som frågesvar, textklassificering och många andra23.
Jurassic-1-modellerna finns i två storlekar, där Jumbo-versionen, med 178 miljarder parametrar, är den största och mest sofistikerade språkmodellen som någonsin släppts för allmänt bruk av Utvecklare23.
GPT 4 är en ai-modell med nästan 3 gånger fler parametrar än Jurassic-1 JUMBO. Jurassic-1 brukade vara större än gpt 3 men den överträffades av gpt 4. Att vara större än gpt 3 betydde inte att den nödvändigtvis kunde ge bättre resultat.
Det var trots allt den tränade gpt 3-modellen som fick världen att öppna ögonen för den verkliga webben och verkliga tillämpningar av en ai-modell. När det gäller integrationer pekar vårt nuvarande tillstånd och våra prognoser på att Bureau Works integreras med flera modeller för att utnyttja det bästa som varje modell levererar.
Kostnad för att använda GPT-4 vs. GPT-3
För information om kostnader för Open AI API, vänligen besök: https://openai.com/pricing
När det gäller Bureau Works finns det ingen skillnad i att arbeta med GPT 3 jämfört med. GPT 4. Vår API leder naturligt Innehåll genom den mest effektiva modellen ur ett kostnads-nytto perspektiv.
Denna artikel går inte in på tekniska detaljer om hur vår integration med gpt 3 fungerar, men det kan hittas på webben i vårt supportbibliotek här: http://support.bureauworks.com
GPT-4 är för närvarande dyrare än GPT-3 eftersom denna modell använder mycket mer datorkraft för att generera sina svar.
GPT-3.5 Turbo kostar för närvarande $0,002 / 1K tokens medan 32k GPT 4 prompt-modellen kostar $0,06 / 1K tokens$0,12 / 1K tokens, ungefär 30 gånger mer.
Men Bureau Works-planen för Översättare inkluderar GPT-integrationen som en del av baspriset som börjar på $9 per användare med en maximal bearbetning av 200,000 ord per användare per varje månadscykel.
Zero-Shot-översättning
Baserat på våra studier hittills ger zero-shot-översättningar inte konsekventa och tillförlitliga resultat. Även om gpt 3 kan vara fantastisk som en förtränad språkmodell, ger översättning utan ytterligare sammanhang blandade resultat.
Vi hittar bättre resultat antingen i högt tränade miljöer eller de som drivs av få-skott-lärande.
Med zero-shot-översättning är det troligt att gpt 3 eller 4 båda ger inkonsekventa resultat. Som den här artikeln har visat, är de båda tränade av webbinnehåll och kommer ibland att producera olika resultat för samma inmatning och uppmaning enligt design.
Översättning handlar om att utnyttja och bygga vidare på kunskapsbaser för att främja märkeskonsekvens, SEO, begriplighet och andra krav för användaracceptans.
Vill du bygga det själv?
Att bygga en integration med GPT 3 är relativt enkelt. API:et är väldokumenterat och slutpunkterna presterar bra. Det finns utmaningar kring hastighetsbegränsningar, textstorlek och andra begränsningar kring API-arkitekturen. Men viktigast av allt är att bygga ut en integration med GPT 3 eller 4 den enkla delen.
Med rätt kontext är GPT 3 eller 4 båda teoretiskt sett kapabla att skapa integrationen själva. Den utmanande delen är att integrationen kan ge dig text in och text ut, men den kommer att ha tydliga begränsningar när det gäller bevarande av formatering, upprätthållande av terminologisk konsekvens, hänvisning till material som översatts tidigare som referens, lärande från användarinmatning och andra scenarier som är viktiga för att producera översättningar av hög Kvalitet i stor skala. Så kan du göra det själv? Självklart.
Kommer det att vara effektivt och skalbart? Tveksam. En av de Viktiga lärdomarna hittills från GPT 3 och 4 är att så Kraftfulla som de är, och så människoliknande som de kan låta, kräver de vägledning, struktur och de rätta elementen för att leverera konsekvent topprestanda. Det är därför vi rekommenderar att du provar Bureau Works gratis i 14 dagar och själv ser den magi du kan få från en så djupt integrerad lösning med GPT i en miljö som är designad från grunden för att producera översättningar av hög Kvalitet i stor skala med minimal mänsklig inblandning.
