
ChatGPTは、人工知能の機能に関する世界中の認識を変えました。 大まかに言えば、不器用でロボット的だったのが、不思議なほど人間らしくなったのです。
これは、翻訳の分野での可能性にどのような影響を与えますか?
人間はもう必要ないのか?
ChatGPTですべてを処理し、翻訳に一銭も費やさないようにすることはできますか?
この記事では、大規模な言語モデルによって提供される翻訳の可能性と制限について探ります。
ChatGPTと話したいですか?

GPT3/4や他の同様に高性能なAIチャットボットのような生成事前学習済みトランスフォーマーと話すことは、啓発的でありながら恐ろしいこともあります。 プロンプトに対する回答は、驚きやユーザーの失望を招く可能性があります。 GPT 4は、90パーセンタイルでBAR試験に合格するだけでなく、誤った事実を捏造したり、非論理的な議論を受け入れたりするなど、大きな失敗を犯すこともできます。
それはすべてパラメータとトレーニングデータに依存していますが、英語ではGPT 3と4が私たちの案件や専門的な案件の進め方を揺るがす可能性を明確に示しています。
しかし、他の言語ではどのように機能するのでしょうか?
より多くのコンテキストまたはより少ないコンテキストでどのように機能しますか?
GPT 3はGPT 4と大きく異なりますか?
機械翻訳 but without a 機械翻訳 system

The history of 機械翻訳 has clearly shown the limits of technology in our world. 80年代に初めてアイデアが導入されたとき、一部の人々はもはや人間を必要とせずに正確な翻訳を生成できることに非常に強気でした。
それは、自然に人間が話すように聞こえる翻訳を作成するために、さまざまな統計モデルとルールベースのモデルを進化させることの問題に過ぎませんでした。
しかし、それは明らかに事実ではありませんでした。 モデルは改善され、知識へのアクセスも向上しましたが、言語はあまりにも微妙で例外が多すぎて、エンジニアが機械に説明するのは困難であることが判明しました。 モデルは、プロンプトとレスポンスの対話に基づいているのではなく、エンジンに含まれる英語のテキストや他の言語での入力に対する単一の出力に基づいていました。
モデルの選択と翻訳コストの見積もり
例えば、モデルの選択はgpt 3で翻訳するための最初の論理的なステップのように思えるかもしれませんが、それが翻訳の旅の最後のステップであるべきである可能性は十分にあります。
例えばプレーンテキストで作業し、それをGPT-3に単純に挿入したり、OpenAIのAPIを使用してコンテンツをインポートおよびエクスポートしたりすることができますが、それでは翻訳に関する重要な課題のいくつかを見落とすことになります。
たとえば、最初の明らかなものは、フォーマットの喪失です。 大規模言語モデルやその他の人工知能システムを深く掘り下げるにつれて、知識管理の重要性もより重要になります。
過去の翻訳をどのように管理しますか?
エンジンをどのように微調整して、用語やSEOを考慮に入れるようにしますか?
AIチャットボットは、どれほどパワフルであっても、もともと翻訳エンジンとして設計されたものではありません。 GPT 3の翻訳は、非常に多くの文脈で素晴らしいものです。 それはしばしばユーザーに対して、人間のように見える翻訳を提供することができ、英語のテキストや他のどの原言語よりも良く聞こえることさえありますが、それ自体では大規模に、または繰り返し運用することはほぼ不可能です。
人工知能と深く統合された翻訳管理システムが必要であり、gpt 3または4によって提示される重要な利点を引き出すことを保証します。
Google LaMDAのクリエイターによる最新のAIであるCharacter.aiと話してみませんか?
GoogleのLaMDAを搭載したCharacter.aiなどのチャットボットの会話は、特定のコンテキストなしで人間のような会話をすることがいかに可能であるかを明確に示しています。 自分が構築したキャラクターや事前に選択したキャラクターに、時には本当に人間らしく見える方法で話しかけることが可能です。
LaMDAについて話すことは重要です。なぜなら、多くの人々はどれだけ多くのシステムが存在するかについて限られた視点を持っていることが多いからです。 ここでは、他の例をいくつかご紹介します。
バート: Google AI
- XLNetによって開発されたTransformersからの双方向エンコーダ表現: カーネギーメロン大学とGoogle AI
- XLM-RoBERTaによって開発された、言語理解のための一般化自己回帰事前訓練: Facebook AI
- Cohereによって開発された、堅牢に最適化されたBERT事前学習アプローチ: Cohere AI
- GLM-130Bによって開発された、特定のドメインとタスクに合わせて微調整できるLLM: 生成LLM with 130 billion parameters, developed by Huawei
- Meta LLaMA AI: Meta AI
- Chinchillaによって開発された1.6兆のパラメータを持つMeta LLMアーキテクチャ: LG AI Research
- LaMDAによって開発された、複数の言語で自然に聞こえるテキストを生成できる大規模な言語モデル: Google Research
- PaLMによって開発された対話アプリケーション用の言語モデル: DeepMind
によって開発された「Pre-training an Autoencoding&Autoregressive Language Model for Context-conditioned Generation」は、人工知能がエンジニアだけのものであるという一般の認識を打破することに成功した最初のモデルでした。 Gpt 3は、SFは結局のところそれほどフィクションではないことを世界に示す最初の言語モデルでした。
GPT-4 と GPT-3 の入力タイプ
翻訳に関しては、ユーザーはチャット GPT 3 または 4 インターフェース(同じユーザーインターフェース)にテキストを入力し、翻訳プロンプトが先行すると翻訳されたテキストを受け取ることができます。 ただし、ユーザーはプレーンテキストに制限されています。
すべての書式設定は失われ、これを保持する唯一の方法は、Bureau Worksのような翻訳管理システムを使用して、ファイルをネイティブに解析し、GPT 3および4と情報を交換することです。これにより、書式設定やその他のメタテキスト情報が失われることはありません。
OpenAIモデルのファインチューニング
翻訳の出力の品質は、主にパラメータとトレーニングデータのサイズに基づく言語モデルの洗練度に基づいています。 しかし、それはプロンプトの品質および人間のユーザーによって提供される追加のコンテキストにも基づいています。
言語モデルが受け取るガイダンスが多ければ多いほど、gpt 3または4は読者にとって意味のある単語をより適切に生成できます。
たとえば、プロンプトで翻訳を非公式でキャッチーに聞こえるようにしたいと説明すると、gpt 3は対応する方法で「話し返し」、プロンプトに共鳴する方法で自由に応答を書きます。
それが、Bureau Worksで私たちの機械学習エンジニアがゼロショットおよび少数ショット学習から最善を引き出す理由です。
機械学習の種類のメカニズムや、メッセージを解釈してユーザーにとって意味のある方法で応答する能力についてあまり詳しく説明せずに、Bureau Worksではゼロから応答を構築することに注力してきました。
AIは、ユーザーのアイデアや目的に沿った文脈でメッセージを書くことができなければなりません。
例えば、ユーザーが元のいわゆる英語のテキストから意味的に逸脱していても自然に聞こえる翻訳を望んでいる場合、その反応は奇妙に見えるかもしれませんが、インターネット上の人がAIによって生成された出力を読むときにどのように反応すべきかには完璧かもしれません。
Bureau Worksは、gpt 3または4および他のAIモデルとのインタラクションをネイティブに保持することができ、以下を考慮に入れます:
- 翻訳メモリに保存された過去の翻訳
- 用語
- ドメイン
- フォーマット/タグ付け
この微調整を通じて、システムがデータを処理し、そのインタラクションの文脈内で期待により合致した回答を提供できる環境を作成することが可能です。
gpt 3または4に微調整されたメッセージは、すべての違いを生むひねりを加えた同様の概念を説明する単語を生成します。 次の例を見てみましょう。
オリジナルサマリー:
Bureau Worksは、複雑な翻訳とローカリゼーション管理をシンプルで予測可能な活動に変えるクラウドベースの翻訳管理システムです。
Apple Twist が新登場:
Bureau Worksは、どんな翻訳やローカライゼーションプロジェクトも簡単かつ自信を持って扱えるパワフルな翻訳管理システムです。 クラウドベースなので、いつでもどこでもアクセスできます。
今カート・ヴォネガット・ツイストで:
Bureau Worksは翻訳とローカリゼーションを大切にしています。 あなたもそうすべきだと思います。 あなたのメッセージを世界中の視聴者に届けるのは簡単ではありません。 しかし、私たちはあなたがこれまで以上にそれをより良く、より速く行うのを助けることができます。
Z世代のツイストで:
Bureau Worksは最高です。 それは、オンラインでの翻訳とローカライズを支援するシステムです。 ウェブサイト、アプリ、メール、ドキュメントなど、何にでも使用できます。 無料で始めることも、自分の雰囲気に合ったプランを選ぶこともできます。
これらの応答を通じて、gpt 3は同じことについてさまざまな方法で話すことができます。 それが書くことの本質です。 同じ概念は無数の異なる方法で表現でき、それぞれの方法は、AIによって考案されたかどうかに関係なく、さまざまな人間の感情を呼び起こす能力を持っています。
GPT-4 対 GPT-3モデルの機能
GPT4はGPT 3の自然な進化形です。 GPT 4はGPT 3の約570倍のパラメータを持ち、1750億個に対して。 100兆。 これにより、異なるAIモデルを比較する際の対話の一貫性が向上し、エラーが少なくなります。 GPT 4は視覚入力の分析もできます。 どちらのモデルも翻訳するように訓練されていませんが、どちらも信じられないほど自然に聞こえるテキストを一語一語書くことができます。
GPT-4 のコンテキストの定義 GPT-3 conversation
Contextは、テキストに情報を提供するすべての情報を指しますが、テキスト自体ではありません。 意味の網の中で、コンテキストは、網全体をサポートするすべての糸を指し、一方でテキストは網の中心部分です。
AIに関して言えば、そして一般的な意味では、文脈がすべてを変えます。 たとえば、AIに「上は下」で「下は上」というコンテキストを与え、次に「7階にいて、8階に行きたい」と伝えると、AIは「下に行かなければならない」と説明します。
AIがこれを言うのは、テキストへのアプローチ方法をガイドするコンテキストをAIに与えたからです。 これは文脈の極端な例ですが、gpt 3のようなAIモデルとの翻訳会話において、使用すべきまたは避けるべき特定の単語、フォーマルまたはインフォーマルなどの特定のトーン、またはgpt 3が考慮すべきテキストの全体的な目標に関する情報として文脈を定義することができます。
APIの設定

Bureau Worksを通じてgpt 3または4を使用する際、APIの設定について心配する必要はありません。 Bureau Worksは、gpt 3エンドポイントへのアクセスを持つネイティブAPIと、このプロセスの情報をgpt 3または4と最も効果的に交換できる独自のフレームワークを備えています。
素晴らしいのは、私たちのAPIがgpt 3以外にもLaMDAやLLaMAなどの他のAIモデルを活用していることです。 当社のAPIは、使用されるプロンプトに関係なく、GPT-3とGPT-4の書き込みの関連性を最大化するために、機械学習モデルの組み合わせを使用しています。

GPT-3を使いたいですか?
Bureau Worksを使用したgpt 3または4の利用は非常に簡単です。 当社のWeb統合は、Webアプリのデフォルト設定として有効になっています。 この記事では、私たちのGPT-3ウェブ統合の基本的な概要と機能のみを探りますが、ウェブサポートライブラリに興味がある場合は、support.bureauworks.comで詳細情報を見つけることができます
無料トライアルにサインアップできますし、もちろんトライアル期間が終了する前にいつでもキャンセルすることができ、料金は発生しません。
GPT-3 対 GPT-4 – 重要なポイント
As far as GPT 3 vs. GPT 4を翻訳に適用したところ、文章例の劇的な逸脱に気づくことができていません。 各モデルは、関連する会話を生成することができます。
gpt3の例が満載の55ページのレポートがあり、興味がある場合はここからダウンロードでき、各モデルのパフォーマンスを詳細に比較する新しいレポートに取り組んでいます。
この研究プレビューが利用可能になり次第、興味がある場合はニュースレターでお知らせします。 各モデルは、少数ショット、ゼロショット、または他の種類の機械学習方法で訓練されているかに関わらず、時にはその奇妙なほど人間らしい性質のためにインターネットのユーザーを驚かせることがあるフィードを生成することができます。
OpenAIによると、GPT 4は特定のシナリオでGPT 3よりも劇的に優れたパフォーマンスを発揮しますが、執筆に関しては、レベルは比較的似ています。 各モデルを比較した詳細なレポートを公開する際には、さらに詳しくご紹介します。
開発者向けに一般公開された中で、最大かつ最も高度な言語モデルであるJurassic-1を使用したいですか?
Bingによると、「Jurassic-1は、イスラエルのAI21 Labsによって開発されたいくつかの自己回帰自然言語処理(NLP)モデルに付けられた名前です1。 Jurassic-1モデルは汎用性が高く、人間のようなテキスト生成だけでなく、質問応答、テキスト分類などの複雑なタスクの解決も可能です23。
Jurassic-1モデルは2つのサイズがあり、Jumboバージョンは1780億のパラメータを持ち、開発者による一般使用のためにリリースされた中で最大かつ最も洗練された言語モデルです23."
GPT4はJurassic-1 JUMBOの約3倍のパラメータを持つAIモデルです。 ジュラシック-1は以前はGPT3よりも大きかったのですが、GPT4に追い抜かれました。 gpt 3よりも大きいからといって、必ずしもより良い結果を出すことができたわけではありません。
結局のところ、AIモデルの真のWebおよび現実世界のアプリケーションに世界が目を開かせたのは、訓練されたgpt 3モデルでした。 統合に関しては、現在の状況と予測は、各モデルが提供する最良のものを引き出すために、Bureau Worksが複数のモデルと統合することを示しています。
GPT-4の使用コストと比較して GPT-3
Open AI APIのコストに関する情報は、次のURLをご覧ください: https://openai.com/価格設定
Bureau Worksに関して言えば、GPT-3と作業することに違いはありません。 GPT-4。 私たちのAPIは、コストと利益の観点から最も効果的なモデルを通じてコンテンツを自然にルーティングします。
この記事では、GPT-3との統合がどのように機能するかについての技術的な詳細には触れていませんが、こちらのサポートライブラリでウェブ上で見つけることができます: http://support.bureauworks.com
GPT-4は、応答を生成するためにより多くの計算能力を使用するため、現在GPT-3よりも高価です。
GPT-3.5 Turboは現在、0.002ドル/1Kトークンですが、32k GPT 4プロンプトモデルの価格は0.06ドル/1Kトークン0.12ドル/1Kトークンで、約30倍です。
しかし、Bureau Worksの翻訳者向けプランには、GPTの統合が基本価格に含まれており、1ユーザーあたり月額サイクルで最大200,000ワードの処理が可能で、価格は1ユーザーあたり$9からです。
ゼロショット翻訳
これまでの研究に基づくと、ゼロショット翻訳では一貫性のある信頼性の高い結果が得られません。 gpt 3は事前に学習された言語モデルとして素晴らしいかもしれませんが、追加のコンテキストなしで翻訳すると、さまざまな結果が得られます。
私たちは、高度に訓練された環境や、少数ショット学習によって駆動される環境でより良い結果を見つける。
ゼロショット翻訳では、gpt 3 または 4 はどちらも一貫性のない結果を生成する可能性があります。 この記事が示すように、彼らはどちらもウェブコンテンツで訓練されており、同じ入力に対して時折異なる出力を生成するように設計されています。
翻訳は、ブランドの一貫性、SEO、理解しやすさ、その他のユーザー受け入れ要件を促進するために、知識ベースを活用し構築することに関するものです。
自分で作ってみませんか?
GPT 3との統合の構築は比較的簡単です。 APIは十分に文書化されており、エンドポイントは適切に機能します。 レート制限、テキストサイズ、および API アーキテクチャに関するその他の制約に関する課題があります。 しかし、最も重要なことは、GPT 3またはGPT 4との統合を構築するのは簡単な部分です。
適切な文脈では、GPT 3 または GPT 4 はどちらも理論的には、統合自体を作成する能力があります。 困難な部分は、統合によってテキストの入出力が可能になるものの、フォーマットの保持、用語の一貫性の維持、過去に翻訳された資料を参照として使用すること、ユーザー入力から学習すること、そして大規模に高品質な翻訳を生み出すために重要な他のシナリオに関して明確な限界があることです。 では、自分でそれを行うことができますか? もちろん。それは効果的でスケーラブルですか? 疑わしい。 これまでのGPT 3と4からの重要な学びの一つは、彼らがどれほどパワフルで、人間のように聞こえるとしても、一貫した最高のパフォーマンスを発揮するためには、ガイダンス、構造、そして正しい要素が必要であるということです。 だからこそ、Bureau Worksを14日間無料でお試しいただき、このように深く組み込まれたGPTとの統合から引き出せる魔法を、最小限の人間の介入で大規模に高品質な翻訳を生み出すことを目的に設計された環境でご自身で確認してください。
