Modelo de AI pode traduzir idiomas, incluindo vários que têm baixa ou nenhuma representação online, e que não são suportados pelos sistemas de tradução atuais
Nesta quarta-feira (06), Mark Zuckerberg anunciou que os pesquisadores da Meta AI responsáveis por nosso projeto No Language Left Behind (Nenhum idioma deixado para trás, em português) alcançaram um grande avanço de pesquisa: nosso modelo de inteligência artificial agora pode traduzir 200 idiomas, incluindo vários que têm baixa ou nenhuma representação online, e que não são suportados pelos sistemas de tradução atuais.
Dentro os 200 idiomas, o NLLB já abrange cinco (ayacucho quíchua, aymara central, guarani, crioulo haitiano, papiamento) que são falados por mais de 20 milhões de pessoas em mais de 10 países e territórios na América Latina.
Essa iniciativa nos leva para mais perto de nossa visão do metaverso, na qual acessibilidade e inclusão devem ser partes fundamentais dele. Estamos trabalhando hoje para garantir que o maior número possível de pessoas possa acessar as novas oportunidades educacionais, sociais e econômicas que a próxima evolução da Internet trará.
O que foi anunciado hoje:
• O modelo único de inteligência artificial da Meta, NLLB-200, agora é capaz de traduzir entre 200 idiomas, muitos dos quais têm pouca ou nenhuma representação online e não são suportados pelos sistemas de tradução atuais
• Os avanços da pesquisa do NLLB suportam mais de 25 bilhões de traduções veiculadas todos os dias no Feed do Facebook, Instagram e nossas outras plataformas.
• Uma colaboração com a Wikimedia Foundations para ajudar a melhorar os sistemas de tradução na Wikipédia. Aplicando nossas técnicas e aprendizados, os editores da Wikipédia agora podem traduzir e editar artigos com mais eficiência em mais de 20 idiomas com baixa disponibilidade de recursos – ou seja, idiomas com falta de elementos dos quais possam ser traduzidos.
• Essa colaboração inclui o aimará central, falado por mais de 1,5 milhão de pessoas em países como Bolívia, Peru e Chile.
• Estamos abrindo os códigos dos modelos NLLB-200, FLORES-200, códigos de treinamento de modelo e códigos para recriar o conjunto de dados de treinamento para ajudar outros pesquisadores a melhorar suas ferramentas de tradução e desenvolver a partir do nosso trabalho.