Quel est le problème que nous essayons de résoudre et comment pouvons-nous mieux utiliser l'IA pour l'aider à résoudre le problème plutôt que ce que nous faisons avec l'IA ?
Inbal ShaniThe future of AI in software development
Stratégie → Priorisation
Quel est le problème que nous essayons de résoudre et comment pouvons-nous mieux utiliser l'IA pour l'aider à résoudre le problème plutôt que ce que nous faisons avec l'IA ?
Il y a quelque chose qu'on appelle le piège de l'objet brillant, et je dis toujours aux gens : 'Ne faites pas d'IA pour le plaisir de faire de l'IA.' Assurez-vous qu'il y a un problème. Assurez-vous qu'il y a un point douloureux à résoudre de manière intelligente.
Quand vous commencez petit, cela vous oblige à réfléchir au problème que vous allez résoudre. Avec tous ces progrès de l'IA, une pente facile et glissante est de continuer à penser à la complexité de la solution et d'oublier le problème que vous essayez de résoudre.
Pour moi, des centaines de dollars dépensés pour cet exercice sont négligeables par rapport à la valeur stratégique potentielle d'avoir de meilleures informations. C'est comme si un chef de cabinet vraiment, vraiment intelligent avait lu toutes les retranscriptions des appels de vente que nous avons eues au cours de l'année dernière.
D'un point de vue produit, je peux imaginer trois bulles dans ma tête. Vous voulez donc trouver l'intersection entre quelque chose qui est désirable pour les utilisateurs, quelque chose qui sera viable pour l'entreprise et quelque chose qui sera réalisable d'un point de vue scientifique et technique.
Alex se réfère aux LLM (modèles de langue de grande taille comme ChatGPT) comme à une «magie de réparation» - un outil polyvalent qui peut connecter différents systèmes mais qui n'est pas parfait.
Ne supposez pas que cela résoudra tous vos problèmes. Ne supposez pas qu'il sera capable de manière autonome de donner des résultats de haute qualité dans tous les cas. Mais que pouvez-vous maintenant construire avec cette solution miracle ?
Chaque fois que vous confiez des capacités décisionnelles à des systèmes agentiques, vous renoncez en quelque sorte à une partie du contrôle de votre côté.