...the trick, obviously, is to sort through our cognitive idiosyncrasies and decide which are worth addressing and which are worth letting go (or even celebrating)
<Gary Marcus, Kludge>
인간은 완벽하지 않다. 하지만 모든 결점을 고쳐야만하는 것은 아니다. 인간은 감정 때문에 냉철한 판단을 못할 때가 많지만 사람들을 응집하는 감정 덕분에 종교, 국가, 회사 등의 강력한 조직이 탄생한다. 동시에 고칠 수 있는 것은 고쳐야 한다. 인간이 아무리 확증편향에 취약하다곤 해도 그것이 지구 평평론, 백신 무용론과 같은 음모론에 빠지는 변명이 될수는 없다.
God, grant me the serenity to accept the things I cannot change, the courage to change the things I can, and wisdom to know the difference.
<Reinhold Niebuhr, Serenity Prayer>
평온의 기도(Serenity Prayer)가 그 지혜를 잘 담아낸다. 난 종교는 없지만 이 기도문엔 깊게 공감한다. 바꿀 수 없는 것은 받아들이는 평온함, 바꿀 수 있는 것은 바꾸는 용기, 그리고 그 둘을 구분하는 지혜. 이를 갖춰야 엉성한 진화와 현대 문명의 불협화음 속에서 지혜롭게 살아갈 수 있다.
그 지혜가 일류 엔지니어가 갖춰야하는 가장 중요한 역량이기도 하다. 일류 엔지니어라면 창업가의 비전을 곧이 곧대로 수용해서는 안된다. 작금의 기술로 불가능한 것은 불가능하다고 일깨워주는 현실감각이 있어야 한다. 무엇이든 가능하다고 믿는 것은 창업가의 몫이다. 창업가도 엔지니어도 모두 현실감각이 없으면 아무것도 배포하지 못한다. 동시에 일류 엔지니어라면 가능의 영역을 최대한 넓힐 수 있어야 한다. 검색해도 답이 안나온다하여 포기하는 식이면 해자를 구축할 수 없다. 어렵지만 분명 가능한 문제를 풀어내야 경쟁력이 생긴다.
즉 불가능한 것은 수용하되, 가능한 것을 기어이 해내며, 그 둘을 자신있게 구분하는 지혜를 갖춰야 일류 엔지니어다. 당장 화성에 갈 수 없음을 받아들이되 재사용 로켓은 가능함을 보여야 일류다 (SpaceX - Falcon 9). 당장 비전프로의 성능을 올릴 수 없음을 받아들이되 시선 밖 픽셀의 해상도를 낮추는 것은 가능함을 보여야 일류다 (Apple - dynamic foveated rendering). VS Code의 밴드 웨거닝을 받아들이되, VS Code를 포킹해 AI 기능을 강화하는 것은 가능함을 보여야 일류다 (Cursor). LLM을 밑바닥부터 재학습해 배경지식을 주입하는 것은 천문학적인 비용이 듦을 받아들이되, 수많은 LoRA를 검색하는 교차 어텐션을 재학습해 배경지식을 주입하는 것은 가능함을 보여야 일류다 (Lamini Memory Tuning).
그 지혜가 일류 엔지니어가 갖춰야하는 가장 중요한 역량이기도 하다. 일류 엔지니어라면 창업가의 비전을 곧이 곧대로 수용해서는 안된다. 작금의 기술로 불가능한 것은 불가능하다고 일깨워주는 현실감각이 있어야 한다. 무엇이든 가능하다고 믿는 것은 창업가의 몫이다. 창업가도 엔지니어도 모두 현실감각이 없으면 아무것도 배포하지 못한다. 동시에 일류 엔지니어라면 가능의 영역을 최대한 넓힐 수 있어야 한다. 검색해도 답이 안나온다하여 포기하는 식이면 해자를 구축할 수 없다. 어렵지만 분명 가능한 문제를 풀어내야 경쟁력이 생긴다.
즉 불가능한 것은 수용하되, 가능한 것을 기어이 해내며, 그 둘을 자신있게 구분하는 지혜를 갖춰야 일류 엔지니어다. 당장 화성에 갈 수 없음을 받아들이되 재사용 로켓은 가능함을 보여야 일류다 (SpaceX - Falcon 9). 당장 비전프로의 성능을 올릴 수 없음을 받아들이되 시선 밖 픽셀의 해상도를 낮추는 것은 가능함을 보여야 일류다 (Apple - dynamic foveated rendering). VS Code의 밴드 웨거닝을 받아들이되, VS Code를 포킹해 AI 기능을 강화하는 것은 가능함을 보여야 일류다 (Cursor). LLM을 밑바닥부터 재학습해 배경지식을 주입하는 것은 천문학적인 비용이 듦을 받아들이되, 수많은 LoRA를 검색하는 교차 어텐션을 재학습해 배경지식을 주입하는 것은 가능함을 보여야 일류다 (Lamini Memory Tuning).