Essa novidade é muito importante para o mundo da Inteligência Artificial, pois o ChatGPT é um dos modelos de linguagem mais avançados do mundo. E agora, com o lançamento do Dolly, outras pessoas podem criar e desenvolver seus próprios modelos de linguagem de código aberto.
Isso significa que a tecnologia de IA está se tornando cada vez mais acessível e democrática. Agora, mais pessoas podem contribuir para a evolução da IA e desenvolver soluções que atendam às necessidades da sociedade.
A criação de um modelo de linguagem de código aberto também significa que mais pessoas podem usá-lo para desenvolver chatbots, assistentes virtuais e outras soluções de IA para suas empresas ou projetos pessoais.
O lançamento do Dolly é uma prova do potencial da tecnologia de código aberto para mudar a forma como a IA é criada e usada. Com mais empresas e desenvolvedores trabalhando juntos, podemos esperar avanços ainda mais significativos nos próximos anos.
A colaboração e transparência impulsionadas pelos modelos de linguagem de código aberto
Um exemplo recente dessa tendência é o Dolly LLM, um modelo de linguagem de grande escala de código aberto que busca oferecer acesso mais amplo à tecnologia de IA. Com essa iniciativa, o objetivo é evitar que as empresas tenham receio de compartilhar dados confidenciais com terceiros que controlam a tecnologia de IA.
Um dos principais motivos que impulsionam o movimento de IA de código aberto é o medo de que as empresas possam ser relutantes em compartilhar informações sensíveis com um terceiro que controla a tecnologia. Isso pode prejudicar a inovação e a evolução do setor.
Com a crescente popularidade dos modelos de linguagem de grande escala de código aberto, é possível ter uma maior transparência, colaboração e compartilhamento de informações. Isso pode contribuir para o desenvolvimento da IA de maneira mais rápida, eficiente e segura.
A iniciativa de tornar a IA de código aberto pode ter um grande impacto na sociedade e na economia, promovendo uma maior democratização da tecnologia e incentivando a inovação em todo o mundo. É um passo importante para tornar a IA mais acessível e permitir que mais pessoas possam contribuir para a evolução da tecnologia.
Dolly: a nova criação de código aberto baseada em modelos de linguagem
A base para o sucesso da Dolly é a LLaMA, um modelo de linguagem de código aberto com 65 bilhões de parâmetros criado pela Meta. A LLaMA é treinada em dados disponíveis publicamente, o que possibilita o seu aprimoramento constante. De acordo com um artigo da Weights & Biases, a LLaMA pode superar muitos dos principais modelos de linguagem, apesar de ser menor.
Com o uso da LLaMA e a criação da Dolly, a inteligência artificial no chatGPT pode atingir um novo patamar. Essas tecnologias possibilitam uma comunicação mais eficaz e natural com os usuários, além de permitir que o modelo evolua constantemente e se adapte a novos desafios. A criação de modelos de linguagem de código aberto e treinados em dados públicos é uma tendência importante na área de inteligência artificial, e a Dolly é um excelente exemplo dos resultados positivos que essa abordagem pode trazer.
A importância da qualidade dos dados de treinamento na melhoria do processamento de linguagem natural
Este artigo explica que, ao utilizar instruções escritas por especialistas em tarefas novas, o modelo de linguagem GPT-3 pode ser ajustado de maneira mais eficiente do que ao utilizar os conjuntos de dados públicos existentes.
Eles realizaram avaliações humanas e descobriram que o método SELF-INSTRUCT superou o desempenho de outros métodos, deixando apenas uma diferença de 5% em relação ao melhor método existente.
Agora, uma nova ferramenta chamada Dolly demonstra que é possível criar um modelo de linguagem grande e útil com um conjunto de dados menor, mas de alta qualidade. Ela funciona modificando um modelo de código aberto de 6 bilhões de parâmetros do EleutherAI, adicionando recursos de seguimento de instruções, como geração de texto e brainstorming, que não estavam presentes no modelo original. Isso foi possível graças ao uso de dados de Alpaca.
O mais surpreendente é que não é necessário ter o modelo mais recente ou maior para obter habilidades de seguimento de instruções, já que o modelo usado tem apenas 6 bilhões de parâmetros, em comparação com os 175 bilhões do GPT-3.
Essa descoberta é animadora para quem trabalha com processamento de linguagem natural, pois sugere que a qualidade do conjunto de dados é mais importante do que o tamanho. E isso abre as portas para modelos de linguagem menores, mas com maior qualidade, o que pode levar a uma melhoria significativa na qualidade do processamento de linguagem natural.
Conclusão
Além disso, iniciativas como a Mozilla.ai demonstram um crescente movimento em prol do uso de software de código aberto para tornar a IA mais acessível e transparente. Com essas iniciativas, acreditamos que a inteligência artificial se tornará cada vez mais presente em nossas vidas, trazendo benefícios significativos para a sociedade.