ENGENHARIA DE PROMPT: O TEMPERO DO CHATGPT
Por: Milton Stiilpen e William Colen
Extrair o melhor resultado da inteligência artificial para cada perfil de negócio
não deixou de depender de profissionais qualificados, como os engenheiros
de prompt, ainda mais com a chegada do GPT-4
Quando o assunto é inteligência artificial (IA), o ChatGPT é o protagonista da vez. O
aplicativo, que ressignificou a interação a partir de diálogos naturais e convincentes
sobre vários campos de conhecimento humano, tem sido apontado como a solução
para qualquer desafio, sobretudo no universo dos negócios. A boa notícia é que a IA
pode, de fato, solucionar questões complexas e estratégicas nesse universo
corporativo, porém, ao contrário do sentimento que se cria de facilidade extrema, o
caminho não é instantâneo, nem está ao alcance das mãos em uma prateleira.
Para extrair o máximo da IA e escapar dos resultados que tragam riscos para a
empresa e para o consumidor, é preciso adicionar um componente fundamental: a
prompt engineering ou engenharia de prompt. Ela é a responsável por ajustar os
temperos da inteligência artificial e torná-la mais saborosa para o perfil de cada
negócio.
A engenharia de prompt, também conhecida como machine teaching, não é
exatamente uma novidade, trata-se de um conceito que vem evoluindo com a
inteligência artificial nas últimas décadas, principalmente no âmbito do
processamento de linguagem natural (NLP).
O engenheiro de prompt é como um chef experiente, que tem habilidades
específicas para combinar ingredientes de uma receita que parece trivial. Assim, ele
entrega a melhor experiência possível para agradar paladares mais refinados: qual é
o objetivo da sua empresa e como o ChatGPT pode impactar positivamente no seu
negócio e na rotina de seu público?
Na prática, a engenharia de prompt é responsável por encadear técnicas e
processos pré, pós ou "dentro" de um briefing de interação com uma aplicação
estilo ChatGPT a fim de criar uma solução robusta. Um prato refinado. Nos últimos
dois anos, essa profissão, se assim podemos chamar, avançou com os modelos
multitarefas com uso de conjunto de processos NLP
Esses avanços se refletem nos modelos GPT-2 e GPT-3, que são a base do ChatGPT.
O GPT-3 (ou terceira versão do transformador generativo pré-treinado) é large
language models (LLM), um modelo de IA criado a partir de redes neurais artificiais,
ou seja, um método de aprendizagem de máquina e treinado com uma enorme
quantidade de dados.
Para além destes modelos, em março deste ano, tivemos mais uma evolução do
GPT realizado por parte da OpenAI. Chegamos ao GPT-4, que utiliza a abordagem
de aprendizado profundo (ou deep learning), mas também o aprendizado por
reforço e promete revolucionar a maneira como as pessoas interagem com a
tecnologia, uma vez que pode entender e gerar respostas para textos e imagens, e
em testes acadêmicos e profissionais, ele teve um desempenho comparável ao de
um humano.
De maneira resumida, o GPT-4 é um modelo de linguagem natural avançado que
aprende com muitos dados e ajuda de especialistas de diferentes áreas,
possibilitando que ele gere respostas precisas e seguras.
No universo da IA, os LLMs já atuam há alguns anos, com sistemas de tradução,
correção gramatical e até mesmo completes mais potentes. Esses e outros casos de
uso mais famosos ainda vivem em um nível de “assistente de escrita”, por isso, é
preciso extrair os resultados mais adequados a cada nova demanda. Para se ter
uma ideia da dimensão desses avanços, o tamanho dos LLMs tem aumentado dez
vezes a cada ano.
Estado da arte em IA
Essa expansão acelerada deixa os LLMs mais complexos, o que os torna mais
poderosos. Seu uso pode ser até fácil, mas os riscos são altos. Os modelos de
linguagens grandes incorporaram recursos extraordinários para aplicações NLP, no
entanto, seu desempenho está diretamente ligado à qualidade do prompt aplicado
para orientar esse modelo.
Por enquanto, os prompts mais eficazes ainda são produzidos pela mente humana.
Não é à toa que os engenheiros de prompt têm despontado como profissionais
mais cobiçados do mercado de tecnologia. São os engenheiros de prompt que
conseguem orientar o melhor comportamento dos LLMs, gerando respostas
apropriadas.
Os engenheiros de prompt têm a capacidade de orquestrar múltiplos prompts,
fontes de dados e recursos computacionais, extraindo o melhor da IA para cada tipo
de negócio. Esses profissionais entregam as habilidades necessárias para refinar a
solução, de acordo com a necessidade de cada modelo de negócio.
A engenharia de prompt também abraça o benefício de atuar em tempo real,
alterando os prompts. Por esse motivo, as empresas que trabalham com IA têm
investido em equipes especializadas em engenharia de prompt. São os humanos
que estão nos bastidores das soluções mais sofisticadas de IA.
Na jornada da IA, os desafios são contínuos. O surgimento do ChatGPT não encerra
capítulos, pelo contrário, descortina novas equações. Quando se fala em GPT-3, o
pulo do gato está em descobrir o caminho para desenvolver soluções em cima
dessa tecnologia, com requintes de programação que extraiam o melhor da IA para
o negócio. E quando falamos do GPT-4 é uma conquista tecnológica emocionante,
com o potencial de impactar vários setores.
Estabelecer uma conversa diária com a IA é fundamental em qualquer tipo de
negócio, mas a base desse diálogo precisa ser bem sedimentada. Se isso não
acontecer, os resultados serão medianos ou ineficazes. O alicerce do sucesso na
estratégia do ChatGPT é o prompt. Sem ele, a experiência com a IA não será ruim,
mas estará longe do estado da arte.
Comentários
Postar um comentário