O ChatGPT mudou percepções ao redor do mundo em relação às capacidades da inteligência artificial. Em termos gerais, passou de ser desajeitado e robótico para ser semelhante a um ser humano de forma estranha.
Como isso impacta as possibilidades no campo da tradução?
Os humanos não são mais necessários?
Posso simplesmente processar tudo através do ChatGPT e nunca mais gastar um centavo com minhas traduções?
Este artigo explorará o potencial e as limitações das traduções oferecidas por grandes modelos de linguagem.
Quer conversar com o ChatGPT?
Conversar com um transformador pré-treinado generativo como o GPT3/4 ou outros chatbots de IA igualmente capazes pode ser tanto esclarecedor quanto assustador. Uma resposta à sua solicitação pode resultar em surpresa e descontentamento do usuário. GPT 4 é capaz de passar no exame da OAB no percentil 90 e também é capaz de cometer grandes erros, como fabricar fatos incorretos ou aceitar argumentos ilógicos.
Tudo depende de parâmetros e dados de treinamento, mas em inglês, o GPT 3 e 4 claramente mostram o potencial de mudar a forma como realizamos nossos trabalhos e empregos profissionais.
Mas como ele se sai em outros idiomas?
Como isso funciona com mais contexto ou menos contexto?
O GPT 3 é significativamente diferente do GPT 4?
Tradução de máquina, mas sem um sistema de tradução de máquina
A história da tradução de máquina claramente mostrou os limites da tecnologia em nosso mundo. Quando as ideias foram introduzidas pela primeira vez nos anos 80, alguns eram extremamente otimistas em relação à não necessidade de um humano para gerar traduções precisas.
Era apenas uma questão de evoluir diferentes modelos estatísticos e baseados em regras para criar traduções que soassem como um humano falaria naturalmente.
Mas isso claramente não era o caso. Os modelos melhoraram e o acesso ao conhecimento melhorou, mas a linguagem acabou se mostrando muito sutil e cheia de exceções para que os engenheiros pudessem explicá-la a uma máquina. Os modelos não foram baseados em um diálogo de pergunta e resposta, mas em uma única saída para entrada de texto em inglês ou qualquer outro idioma abrangido pelo mecanismo.
Escolhendo um Modelo e Estimando um Custo de Tradução
Embora escolher um modelo possa parecer o primeiro passo lógico para traduzir com o gpt 3, por exemplo, é bastante possível que deva ser o último passo em sua jornada de tradução.
Você pode trabalhar, por exemplo, com texto simples e simplesmente inseri-lo em um gpt 3 ou trabalhar com a API da OpenAI para importar e exportar seu conteúdo, por exemplo, mas isso ignorará alguns dos principais desafios em torno das traduções.
O primeiro óbvio, por exemplo, é a perda de formatação. À medida que você se aprofunda em grandes modelos de linguagem e outros sistemas de inteligência artificial, a importância da gestão do conhecimento também se torna mais crítica.
Como você irá gerenciar traduções anteriores?
Como você ajustará seu mecanismo para levar em consideração sua terminologia ou seu SEO?
Os chatbots de IA, por mais poderosos que sejam, não foram originalmente projetados como motores de tradução. A tradução do GPT 3 é incrível em tantos contextos. Ele pode muitas vezes apresentar aos seus usuários traduções que parecem humanas e podem soar até melhores do que o texto em inglês ou qualquer outra língua original, mas por si só, será quase impossível operar em grande escala ou de forma recorrente.
Um sistema de gerenciamento de tradução que esteja profundamente integrado à inteligência artificial é necessário para garantir que você extraia os principais benefícios apresentados pelo gpt 3 ou 4.
Quer conversar com o Character.ai, a mais recente IA dos criadores do Google LaMDA?
Conversas de chatbot como a do Character.ai, alimentada pelo LaMDA do Google, mostram claramente como é possível ter uma conversa semelhante à humana sem nenhum contexto específico. É possível conversar com um personagem que você constrói ou pré-seleciona de uma maneira que parece genuinamente humana às vezes.
É importante falar sobre LaMDA porque muitas vezes as pessoas têm uma perspectiva limitada sobre quantos sistemas existem por aí. Aqui estão alguns exemplos de outros:
BERT: Bidirectional Encoder Representations from Transformers, desenvolvido pelo Google AI
- XLNet: Generalized Autoregressive Pretraining para Compreensão de Linguagem, desenvolvido pela Universidade Carnegie Mellon e Google AI
- XLM-RoBERTa: Uma Abordagem de Pré-treinamento BERT Robustamente Otimizada, desenvolvida pelo Facebook AI
- Cohere: Um LLM que pode ser ajustado para domínios e tarefas específicas, desenvolvido pela Cohere AI
- GLM-130B: Generativa LLM com 130 bilhões de parâmetros, desenvolvida pela Huawei
- Meta LLaMA AI: Arquitetura Meta LLM com 1,6 trilhão de parâmetros, desenvolvida por Meta AI
- Chinchilla: Um grande modelo de linguagem que pode gerar texto com som natural em vários idiomas, desenvolvido pela LG AI Research
- LaMDA: Modelo de Linguagem para Aplicações de Diálogo, desenvolvido pelo Google Research
- PaLM: Pré-treinamento de um Modelo de Linguagem de Autoencodificação e Autoregressão para Geração Condicionada ao Contexto, desenvolvido pela DeepMind
GPT 3 foi o primeiro modelo que conseguiu quebrar a percepção pública de que a inteligência artificial era algo apenas para engenheiros. Gpt 3 foi o primeiro modelo de linguagem que mostrou ao mundo que a ficção científica não é tão fictícia assim.
Tipos de entrada no GPT-4 e GPT-3
Quando se trata de tradução, um usuário pode inserir texto na interface do chat GPT-3 ou 4 (elas são a mesma interface do usuário) e obter o texto traduzido de volta quando precedido por um prompt de tradução. Um usuário está limitado a texto simples, no entanto.
Qualquer formatação será perdida e a única maneira de preservá-la é trabalhando com um sistema de gerenciamento de tradução como o BWX, que analisa arquivos nativamente para que as informações possam ser trocadas com o GPT 3 e 4 sem perda de formatação ou outras informações meta-textuais.
Aperfeiçoamento dos modelos da OpenAI
A qualidade da saída de uma tradução é baseada na sofisticação do modelo de linguagem, principalmente nos parâmetros e no tamanho dos dados de treinamento. Mas também é baseado na qualidade do prompt, bem como no contexto adicional fornecido por uma pessoa (usuário humano).
Quanto mais orientação o modelo de linguagem recebe, melhor o gpt 3 ou 4 é capaz de gerar palavras que façam sentido para o leitor.
Se você descrever em sua solicitação, por exemplo, que deseja que a tradução soe informal e cativante, o gpt 3 irá "responder" de maneira correspondente e terá a liberdade de escrever sua resposta de maneiras que se conectem com sua solicitação.
É por isso que na Bureau Works nossos engenheiros de aprendizado de máquina extraem o melhor do aprendizado sem supervisão e do aprendizado com poucos exemplos.
Sem entrar em muitos detalhes sobre os tipos de aprendizado de máquina e sua capacidade de interpretar mensagens e responder de uma maneira que faça sentido para seus usuários, na Bureau Works, nos concentramos em construir respostas desde o início.
A IA deve ser capaz de escrever mensagens que estejam contextualizadas dentro das ideias e propósitos dos usuários.
Se o usuário, por exemplo, deseja que a tradução soe natural mesmo que se desvie semanticamente do texto original em inglês, a resposta pode parecer estranha, mas pode ser perfeita para a forma como uma pessoa na internet deve reagir ao ler a saída gerada pela IA.
BWX é nativamente capaz de realizar uma interação com gpt 3 ou 4, bem como outros modelos de IA que levarão em consideração:
- traduções passadas armazenadas em sua memória de tradução
- terminologia
- domínio
- formatação/marcação
Através deste ajuste fino, somos capazes de criar um ambiente no qual o sistema pode processar dados e fornecer uma resposta que esteja mais alinhada com as expectativas dentro do contexto dessa interação.
Uma mensagem ajustada para o gpt 3 ou 4 irá gerar palavras que descrevem conceitos similares com uma reviravolta que faz toda a diferença. Dê uma olhada no exemplo a seguir:
Resumo Original:
Agora com Apple Twist:
Bureau Works é um poderoso sistema de gerenciamento de tradução que permite lidar com qualquer projeto de tradução e localização com facilidade e confiança. É baseado em nuvem, então você pode acessá-lo a qualquer momento, em qualquer lugar.
Agora com uma reviravolta à la Kurt Vonnegut:
Bureau Works se preocupa com tradução e localização. Nós achamos que você também deveria. Não é fácil alcançar uma audiência global com sua mensagem. Mas podemos ajudá-lo a fazer isso melhor e mais rápido do que nunca.
Agora com um toque da Geração Z:
Bureau Works é incrível. É um sistema que ajuda você a traduzir e localizar seus conteúdos online. Você pode usar para qualquer coisa: websites, apps, emails, documentos, etc. Você pode começar de graça ou escolher um plano que se encaixe no seu estilo.
É por meio dessas respostas que o gpt 3 consegue falar de várias maneiras diferentes sobre a mesma coisa. É a natureza da escrita. O mesmo conceito pode ser expresso de inúmeras maneiras diferentes e cada uma delas tem a capacidade de evocar diferentes emoções humanas, independentemente de terem sido concebidas por uma IA ou não.
GPT-4 vs. As capacidades do modelo GPT-3
GPT4 é uma evolução natural do GPT 3. GPT 4 tem cerca de 570 vezes mais parâmetros do que GPT 3 - 175 bilhões vs. 100 trilhões. Isso resulta em diálogos mais consistentes e menos erros ao comparar os diferentes modelos de IA. GPT 4 também pode analisar entrada visual. Ambos os modelos não foram treinados para traduzir, mas ambos podem escrever textos incrivelmente naturais palavra por palavra.
Definindo o contexto de GPT-4 vs. Conversa GPT-3
Contexto se refere a todas as informações que informam o texto, mas não são o próprio texto. Em uma teia de significado, contexto refere-se a todos os fios que sustentam a teia como um todo, enquanto o texto é a parte central da teia.
Quando se trata de IA e significado em geral, o contexto muda tudo. Se eu disser para a IA, por exemplo, que para cima é para baixo e para baixo é para cima como contexto, e depois disser para a IA que estou no sétimo andar e quero ir para o oitavo andar, a IA me explicará que devo descer.
A IA dirá isso porque eu dei a ela um contexto que orienta como ela aborda o texto. Este é um exemplo extremo de contexto, mas em conversas de tradução com um modelo de IA como o gpt 3, posso definir o contexto como certas palavras que devem ser usadas ou evitadas, certos tons que devem ser seguidos, como formal ou informal, ou informações sobre os objetivos gerais para o texto que o gpt 3 deve levar em consideração.
Configurando a API
Quando se trata de trabalhar com gpt 3 ou 4 através do BWX, não há necessidade de se preocupar com a configuração da API. BWX possui uma API nativa com acesso aos endpoints do gpt 3 e um framework proprietário que permite a troca de informações neste processo com o gpt 3 ou 4 da maneira mais eficaz possível.
A beleza é que nossa API também utiliza outros modelos de IA além do gpt 3, como LaMDA e LLaMA. Nossa API utiliza uma combinação de modelos de aprendizado de máquina para maximizar a relevância da escrita do gpt 3 e 4, independentemente do prompt utilizado.
Quer usar o GPT-3?
Usar o gpt 3 ou 4 com BWX é muito simples. Nossa integração web está habilitada como configuração padrão em nosso aplicativo web. Este artigo apenas explora a visão geral básica e as capacidades de nossa integração web gpt 3, mas você pode encontrar mais informações caso esteja interessado em nossa biblioteca de suporte web em support.bureauworks.com
Você pode se inscrever para um teste gratuito e, é claro, pode cancelar a qualquer momento antes do final do período de teste e não será cobrado.
GPT-3 vs. GPT-4 - Principais pontos
No que diz respeito a GPT 3 vs. GPT 4 aplicado às traduções, não conseguimos notar desvios dramáticos nos exemplos de escrita. Cada modelo é capaz de produzir conversas relevantes.
Temos um relatório de 55 páginas repleto de exemplos do gpt 3 que pode ser baixado aqui, caso você esteja interessado, e estamos trabalhando em um novo relatório que irá comparar detalhadamente o desempenho de cada modelo.
Assim que esta prévia de pesquisa estiver disponível, iremos notificá-lo através do nosso boletim informativo, caso você esteja interessado. Cada modelo, independentemente de como é treinado, seja por meio de poucas amostras, sem amostras ou outros tipos de métodos de aprendizado de máquina, é capaz de produzir feeds que, às vezes, podem surpreender os usuários da internet devido à sua natureza humana surpreendente.
De acordo com a OpenAI, o GPT 4 tem um desempenho significativamente melhor do que o GPT 3 em certos cenários, mas no que diz respeito à escrita, o nível é relativamente similar. Mais informações virão quando publicarmos nosso relatório detalhado comparando cada modelo.
Quer usar o Jurassic-1, o maior e mais sofisticado modelo de linguagem já lançado para uso geral por desenvolvedores?
De acordo com o Bing, "Jurassic-1 é o nome dado a um par de modelos de Processamento de Linguagem Natural (NLP) auto-regressivos desenvolvidos pelo AI21 Labs de Israel1. Os modelos Jurassic-1 são altamente versáteis, capazes tanto de gerar texto semelhante ao humano, quanto de resolver tarefas complexas como responder perguntas, classificar textos e muitas outras23.
Os modelos Jurassic-1 estão disponíveis em dois tamanhos, sendo que a versão Jumbo, com 178 bilhões de parâmetros, é o maior e mais sofisticado modelo de linguagem já lançado para uso geral por desenvolvedores23.
GPT 4 é um modelo de IA com quase 3 vezes mais parâmetros do que o Jurassic-1 JUMBO. Jurassic-1 costumava ser maior que gpt 3, mas foi superado por gpt 4. Ser maior que o gpt 3 não significa necessariamente que ele seja capaz de produzir resultados melhores.
Foi o modelo gpt 3 treinado afinal de contas que fez o mundo abrir os olhos para a verdadeira web e aplicações do mundo real de um modelo de IA. No que diz respeito às integrações, nosso estado atual e projeções apontam para a integração do BWX com vários modelos, a fim de extrair o melhor que cada modelo oferece.
Custo de usar GPT-4 vs. GPT-3
Para obter informações sobre os custos da API da Open AI, visite: https://openai.com/pricing
No que diz respeito ao BWX, não há diferença em trabalhar com o GPT 3 vs. GPT 4. Nossa API naturalmente encaminha o conteúdo através do modelo mais eficaz do ponto de vista custo-benefício.
Este artigo não entra em detalhes técnicos sobre como nossa integração com o gpt 3 funciona, mas pode ser encontrado na web em nossa biblioteca de suporte aqui: http://support.bureauworks.com
O GPT-4 é atualmente mais caro que o GPT-3, pois esse modelo usa muito mais poder de computação para produzir suas respostas.
O GPT-3.5 Turbo atualmente custa $0.002 / 1K tokens, enquanto o modelo de prompt GPT 4 de 32k custa $0.06 / 1K tokens$0.12 / 1K tokens, aproximadamente 30 vezes mais.
No entanto, o plano BWX para Tradutores inclui a integração GPT como parte do preço base que começa em $9 por usuário com um processamento máximo de 200.000 palavras por usuário por ciclo mensal.
Tradução sem uso de dados
Com base em nossos estudos até o momento, as traduções sem uso de dados não produzem resultados consistentes e confiáveis. Por mais incrível que o gpt 3 possa ser como um modelo de linguagem pré-treinado, traduzir sem contexto adicional produz resultados mistos.
Obtemos melhores resultados em ambientes altamente treinados ou aqueles impulsionados pelo aprendizado de poucas amostras.
Com a tradução sem necessidade de treinamento, tanto o gpt 3 quanto o gpt 4 provavelmente produzirão resultados inconsistentes. Como este artigo mostrou, ambos são treinados pelo conteúdo da web e produzirão saídas diferentes para a mesma entrada e prompt ocasionalmente por design.
A tradução é toda sobre aproveitar e construir em cima de bases de conhecimento a fim de promover consistência de marca, SEO, inteligibilidade e outros requisitos para a aceitação do usuário.
Quer construir você mesmo?
Construir uma integração com o GPT 3 é relativamente simples. A API está bem documentada e os endpoints têm um bom desempenho. Existem desafios relacionados aos limites de taxa, tamanho do texto e outras restrições em torno da arquitetura da API. Mas o mais importante é construir uma integração com o GPT 3 ou 4 é a parte fácil.
Com o contexto adequado, o GPT 3 ou 4 são teoricamente capazes de criar a integração por si mesmos. A parte desafiadora é que a integração pode receber texto de entrada e texto de saída, mas terá limites claros em relação à preservação de formatação, manutenção de consistência terminológica, referência a material traduzido anteriormente como referência, aprendizado a partir da entrada do usuário e outros cenários que são relevantes para produzir traduções de alta qualidade em grande escala. Então você consegue fazer isso sozinho? Certamente.
Será eficaz e escalável? Dúvida. Uma das principais aprendizagens até agora do GPT 3 e 4 é que, por mais poderosos que sejam, por mais humanos que possam parecer, eles requerem orientação, estrutura e os elementos certos para fornecer um desempenho máximo consistente. É por isso que recomendamos que você experimente o BWX gratuitamente por 14 dias e veja por si mesmo a magia que você pode extrair de uma integração profundamente tecida com o GPT em um ambiente que foi projetado desde o início para produzir traduções de alta qualidade em escala com intervenção humana mínima.