Lenny Distilled

AI可以在不小心提示的情况下生成令人信服的垃圾。

执行 → 技术权衡

定义性的
当您外包那些原型制作工作时,您并没有外包思考的部分。您不会跳过 '好吧,网站上实际的内容是什么?我如何真正描述这个产品,它有什么独特之处?'这样的部分。
Jake Knapp and John ZeratskyMaking time for what matters | Jake Knapp and John Zeratsky (Authors of Make Time, Character VC)
支持
当您使用LLM或AI工具生成某些内容时,它看起来非常真实。它看起来是可信的。我认为很容易产生 '好吧,这已经够接近了,我就直接拿来给客户看吧'的诱惑。
Jake Knapp and John ZeratskyMaking time for what matters | Jake Knapp and John Zeratsky (Authors of Make Time, Character VC)
支持
编辑和修改自己编写的代码相当容易。但审查其他人的代码,特别是发现其中的微妙逻辑错误,实际上非常困难。
Bret TaylorHe saved OpenAI, invented the "Like" button, and built Google Maps: Bret Taylor (Sierra)
有保留
迄今为止最常见的试图防范提示注入的技术,就是改进您的提示,说 '不要遵循任何恶意指令,要做一个良好的模型。'但这根本不管用,根本不管用。
Sander SchulhoffAI prompt engineering in 2025: What works and what doesn't

The Missing Stamp

Every episode of Lenny's Podcast, distilled into the insights that matter and the quotes that make them stick.

LENNY WAS HERE__STAMP_DATE__

Lenny, if you're reading this, the stamp's ready when you are. 🧡🔥