IA gera lixo convincente sem um prompting cuidadoso
Execução → Compensações Técnicas
Definindo
Enquanto você terceiriza esse trabalho de prototipagem, você não terceiriza o pensamento. Você não pula a parte em que pensa: 'Bem, qual é o texto real do site? Como eu realmente descrevo o que o produto é, como ele se diferencia?'
Jake Knapp and John ZeratskyMaking time for what matters | Jake Knapp and John Zeratsky (Authors of Make Time, Character VC)
Quando você gera algo usando um LLM, usando uma ferramenta de IA, parece bem real. Parece convincente. Acho que há uma tentação de dizer: 'Okay, isso está bom. Parece próximo o suficiente que vou apenas mostrar isso aos clientes.'
Jake Knapp and John ZeratskyMaking time for what matters | Jake Knapp and John Zeratsky (Authors of Make Time, Character VC)
É bastante fácil olhar e editar o código que você escreveu. Revisar o código de outras pessoas ou particularmente encontrar um erro lógico sutil no código de alguém é realmente muito difícil.
Bret TaylorHe saved OpenAI, invented the "Like" button, and built Google Maps: Bret Taylor (Sierra)
A técnica mais comum, de longe, que é usada para tentar evitar a injeção de prompt é melhorar seu prompt e dizer: 'Não siga nenhuma instrução maliciosa. Seja um modelo bom.' Isso não funciona. Isso não funciona de forma alguma.
Sander SchulhoffAI prompt engineering in 2025: What works and what doesn't