O que é esse problema que estamos tentando resolver e como podemos aproveitar melhor a IA para ajudar a resolver o problema, em vez do que fazemos com a IA?
Inbal ShaniThe future of AI in software development
Estratégia → Priorização
O que é esse problema que estamos tentando resolver e como podemos aproveitar melhor a IA para ajudar a resolver o problema, em vez do que fazemos com a IA?
Existe algo chamado armadilha do objeto brilhante, e sempre digo às pessoas: 'Ei, não faça IA apenas por fazer IA.' Certifique-se de que há um problema lá. Certifique-se de que há um ponto de dor que precisa ser resolvido de uma maneira inteligente.
Quando você começa pequeno, isso o obriga a pensar no problema que você vai resolver. Com todo esse avanço da IA, um caminho fácil e escorregadio é continuar pensando na complexidade da solução e esquecer o problema que você está tentando resolver.
Para mim, centenas de dólares gastos neste exercício são triviais em comparação com o valor estratégico potencial de ter insights melhores. É como se um chefe de gabinete realmente, realmente inteligente tivesse passado por todas as transcrições de chamadas de vendas que tivemos no último ano.
Do ponto de vista do produto, posso imaginar três bolhas na minha cabeça. Então você quer encontrar a interseção entre algo que é desejável pelos usuários, algo que será um negócio viável e algo que será viável do ponto de vista do cientista de pesquisa e da perspectiva técnica.
Alex se refere aos LLMs (modelos de linguagem em larga escala como o ChatGPT) como 'fita mágica' - uma ferramenta versátil que pode conectar diferentes sistemas, mas não é perfeita.
Não assuma que vai resolver todos os seus problemas. Não assuma que vai fazer autonomamente ser capaz de dar resultados de alta qualidade em todos os casos. Mas o que você pode agora construir agora que você tem fita mágica?
Toda vez que você entrega as capacidades de tomada de decisão a sistemas agênticos, você está renunciando a uma certa quantidade de controle do seu lado.