كعملية آلية، يجب تقييم الترجمة الآلية بانتظام لضمان جودتها.
وكيف يمكنك فعل ذلك؟ الشركات لديها خياران. أحدها هو استخدام محترفين لمراجعة الترجمات.
بالطبع، سيكون هذا متناقضًا تقريبًا مع عملية MT بأكملها - لأنها عملية ترجمة لا تشمل البشر. لحل هذه المشكلة، تم إنشاء درجة BLEU. درجة BLEU هي مفهوم معروف لأولئك الذين هم على دراية بالترجمة الآلية.
BLEU هو اختصار لتقييم ثنائي اللغة - أو خوارزمية تقيم النصوص المترجمة آليًا من لغة إلى أخرى.
كيف يقوم مقياس BLEU بتقييم الجودة؟
لمقارنة الجودة للنص، تقارن درجات BLEU مع الترجمات المرجعية. بمعنى آخر، تقيس درجة BLEU التشابه بين الترجمة الآلية والترجمة الاحترافية. من الناحية المثالية، كلما كانت النسخة الآلية أقرب إلى المحتوى المترجم بواسطة الإنسان، كان ذلك أفضل. درجة BLEU تفهم مدى "قرب" النص من المحتوى المشار إليه بفضل خوارزميتها.
يقارن هذا الخوارزم بين الجمل المتتالية من نص الترجمة الآلية مع الجمل المتتالية الموجودة في الترجمة المرجعية، ويقوم بتقييم مدى تشابهها من واحدة إلى أخرى، دون الأخذ في الاعتبار القواعد أو الوضوح. ثم، يوفر BLEU درجة تتراوح من 0 إلى 1 بناءً على هذه المعلومات. 1 هو، من الناحية المثالية، أفضل سيناريو هنا.
ومع ذلك، من المهم الإشارة إلى أن عدداً قليلاً من النصوص سيحقق هذه النتيجة، لأن ذلك يعني ضمناً أن نص الترجمة الآلية مطابق لنص واحد على الأقل من المجموعة المشار إليها.
كما قد تكون لاحظت، يحتاج نظام BLEU إلى وجود المحتوى المرجعي لتقييم النصوص المترجمة آليًا. في الواقع، يُوصى عمومًا بجمع ما لا يقل عن 1,000 جملة في الترجمات المشار إليها لضمان جودتها.
هناك بعض الجوانب السلبية لهذه التكنولوجيا. على سبيل المثال، قد تكون الحاجة إلى كمية كبيرة من الجمل المرجعية مشكلة اعتمادًا على طبيعة المحتوى المترجم. ومع ذلك، لا تزال هذه الطريقة شائعة للغاية بين مستخدمي MT وهي واحدة من أكثر الطرق فعالية من حيث التكلفة لقياس النصوص المترجمة آليًا.