앞으로의 모든 것을 미리 알 수는 없습니다. 그래서 초기에 잘못된 정확성을 얻게 되면 그것은 안전감의 울타리일 뿐입니다. 그것은 불확실성이 없다는 느낌만 줍니다. 불확실성은 언제나 어디에나 존재합니다.
Alex KomoroskeThinking like a gardener, slime mold, the adjacent possible: Product advice from Alex Komoroske
전략 → 로드맵 & 계획
앞으로의 모든 것을 미리 알 수는 없습니다. 그래서 초기에 잘못된 정확성을 얻게 되면 그것은 안전감의 울타리일 뿐입니다. 그것은 불확실성이 없다는 느낌만 줍니다. 불확실성은 언제나 어디에나 존재합니다.
나는 우리가 곧 어떤 능력이 나타날지도 모르고, 기술적으로 작동할지도 모르며, 그것이 작동한다고 해도 실제로 사용될지도 모르기 때문에, 매우 겸손하고 실증적으로 많이 배우며 빨리 시도하는 것이 훨씬 더 중요하다고 생각합니다.
AI를 다룰 때는 과거와 달리 기술이 어느 순간 전혀 새로운 무언가를 할 수 있게 되기 때문에, 완전히 다른 방식으로 생각해야 합니다.
계획을 멀리 내다볼수록 그것은 더 허황된 것이 됩니다. 우리는 이 사실을 알고 있습니다.
AI 기능의 급격한 변화를 의미하며, 'capabilities drop'은 Anthropic 등의 회사에서 새로운 AI 기능이 출시될 때를 뜻한다.
역량이 바뀌면 바로 대응할 수 있어야 합니다. 로드맵에 얽매이지 않고 우선순위를 즉시 바꿀 수 있는 민첩성이 중요할 것입니다.