아침 출근길, 멀리서 들려오는 소방차의 날카로운 사이렌 소리에 저도 모르게 휴대폰을 집어 듭니다. '혹시 깜빡하고 끄지 않은 전기장판 때문은 아닐까?' 하는 서늘한 불안감이 엄습합니다. 따스한 온기를 전해주던 고마운 기술이 한순간에 나의 모든 것을 앗아갈 화마로 돌변할 수 있다는 이 아이러니는, 현대 기술 문명 속을 살아가는 우리 모두의 민낯일지도 모릅니다.
실존주의 철학자 카를 야스퍼스(Karl Jaspers)는 기술을 그 자체로 선도 악도 아닌, 인간의 목적에 따라 달라지는 '공허한 힘'이라 정의했습니다. 하지만 민간점검원으로서 산업단지의 거대한 설비들 앞에 서면, 야스퍼스의 말처럼 기술이 과연 수단에 머물고 있는지 의문이 듭니다. 측정기에 찍히는 숫자 하나가 누군가의 생계를 흔들 때, 우리는 기술을 부리는 주체인가요, 아니면 데이터라는 시스템의 부속품인가요?
오늘은 인류 역사상 가장 찬란한 기술적 성취이자 가장 처참한 비극이었던 핵폭탄의 탄생을 다룬 영화 <오펜하이머(2023)>를 통해, 기술이 '도구적 합리성'의 늪에 빠져 광기를 부릴 때 인간이 짊어져야 할 '실존적 책임'의 무게에 대해 이야기해보려 합니다.
기술은 수단인가, 목적인가 — 야스퍼스와 오펜하이머의 고뇌
일반적으로 기술은 가치 중립적이라고 알려져 있습니다. 철학자 카를 야스퍼스도 기술 자체에는 도덕적 성격이 없다고 보았습니다. 그런데 제가 민간점검원으로 현장을 다니다 보면 이 명제가 마냥 맞는 말인지 의심스러울 때가 있습니다. 미세먼지 측정기의 수치 하나가 누군가의 과태료를 결정하고, 누군가의 생계를 뒤흔들기도 하니까요.
야스퍼스는 도구적 합리성(Instrumental Rationality)이라는 개념을 경계했습니다. 도구적 합리성이란 목적의 윤리적 타당성을 따지지 않고 오직 효율과 수단의 최적화만 추구하는 사고방식을 말합니다. 쉽게 말해, "어떻게 하면 더 빠르고 더 싸게 만들 수 있느냐"에만 집중하고 "이걸 왜, 누구를 위해 만드느냐"는 묻지 않는 상태입니다. 그는 기술이 인간의 주체적 판단과 분리되는 순간, 전 지구가 하나의 거대한 공장 재료로 전락할 수 있다고 경고했습니다.
영화 오펜하이머는 바로 이 경고가 현실이 된 순간을 보여줍니다. 맨해튼 프로젝트(Manhattan Project)는 2차 세계대전 당시 미국이 주도한 핵폭탄 개발 계획으로, 당대 최고의 물리학자들이 총집결한 인류 역사상 가장 큰 규모의 군사 기술 프로젝트였습니다. 저도 영화를 보면서 단순한 전쟁 영화라고 생각했는데, 막상 보고 나니 오펜하이머와 아인슈타인을 비롯한 과학자들이 폭탄이 만들어지는 순간부터 이미 그 결과를 두려워했다는 장면들이 내내 머릿속에 남았습니다.
실존적 책임(Existential Responsibility)이라는 개념도 여기서 중요하게 등장합니다. 실존적 책임이란 자신의 행위가 세계에 미치는 영향에 대해 도덕적으로 온전히 짊어지는 태도를 의미합니다. 오펜하이머가 히로시마 이후 "나는 이제 죽음이요, 세상의 파괴자가 되었다"고 독백한 것은 단순한 후회가 아니라, 기술을 수단으로만 여겼던 과학자가 뒤늦게 그 결과 앞에서 무너지는 순간입니다. 제 경험상 이건 먼 나라 이야기가 아닙니다. 현장에서 점검 결과를 보고서에 옮길 때, 이 수치가 누군가의 영업 정지로 이어진다는 사실을 생각하면 손끝이 무거워지는 느낌을 받습니다.
핵심 포인트를 정리하면 다음과 같습니다.
- 기술 자체는 선도 악도 아니지만, 누가 어떤 목적으로 사용하느냐에 따라 결과는 완전히 달라집니다.
- 도구적 합리성에만 매몰되면 인간은 시스템의 부품이 되고, 기술은 통제 불가능한 힘으로 자립합니다.
- 오펜하이머의 고뇌는 기술 개발자뿐 아니라 기술을 사용하는 모든 사람이 가져야 할 실존적 책임을 상징합니다.
노벨에서 AI까지 — 기술 윤리의 반복되는 질문
노벨이 다이너마이트를 개발했을 때도 똑같은 논쟁이 있었습니다. 인류의 재앙이냐, 발전이냐. 그리고 그 논쟁은 지금까지 반복되고 있습니다. 산업혁명 이후 기계화와 정보화가 급격히 진행되는 동안 생산력은 폭발적으로 커졌지만, 그 사이에 수많은 전쟁이 일어났고 환경오염과 핵전쟁의 위협도 함께 커졌습니다.
기술 윤리(Technology Ethics)는 과학기술 개발과 활용 과정에서 발생하는 도덕적·사회적 문제를 다루는 학문 분야입니다. 기술 그 자체보다 기술을 둘러싼 인간의 판단과 가치관이 핵심이라는 점에서 야스퍼스의 관점과 맞닿아 있습니다. 일반적으로 기술 윤리는 학자들의 영역이라고 생각하는 분들도 있는데, 저는 이게 아주 일상적인 문제라고 생각합니다. 제가 현장에서 점검 기기를 다루면서도 "이 데이터를 어떻게 해석하고 어떻게 행동할 것인가"는 전적으로 저의 판단에 달려 있으니까요.
현재 미국과 이란 사이의 긴장 국면에서 일부 전문가들은 최신 무기 기술이 실전에서 '실험'되는 것 아니냐는 우려를 제기하고 있습니다. 이는 야스퍼스가 말한 한계상황(Boundary Situation), 즉 인간이 어떤 방식으로도 피할 수 없는 극단적 조건과 맞닿아 있습니다. 한계상황이란 죽음, 전쟁, 고통처럼 인간 존재의 근본을 흔드는 상황을 가리키며, 야스퍼스는 이 순간에 인간이 비로소 자신의 실존과 마주한다고 보았습니다.

AI 기술의 급속한 발전도 그 시대와 비슷한 불안감을 만들어내고 있습니다. 솔직히 이건 저도 직접 겪고 있는 문제입니다. 지금 이 글도 AI의 도움을 받아 정리하고 첨삭하고 있습니다. 기술 발전을 반대할 이유는 없지만, 기술이 무고한 생명을 해치거나 인간의 판단을 대체하기 시작할 때 우리가 어디에 선을 그어야 하는지는 여전히 답이 없는 질문입니다.
UNESCO의 2021년 AI 윤리 권고안(Recommendation on the Ethics of AI)은 인공지능 기술의 개발과 활용이 인간의 존엄성과 기본권을 침해해서는 안 된다는 원칙을 193개 회원국이 채택한 국제 합의입니다(출처: UNESCO). 기술의 방향을 결정하는 것은 결국 인간의 가치 판단이라는 점에서 야스퍼스의 주장과 같은 결론에 닿습니다.
국내에서도 과학기술정보통신부는 2023년 인공지능 윤리 기준을 고도화하며 AI 개발자와 사용자 모두의 책임을 강조한 바 있습니다(출처: 과학기술정보통신부). 기술을 만드는 사람뿐 아니라 쓰는 사람 모두가 윤리적 주체가 되어야 한다는 것은 오펜하이머의 고뇌에서 우리가 배워야 할 가장 현실적인 교훈입니다.
오펜하이머처럼 결과에 대해 실존적 책임을 질 용기가 있는 사람이 얼마나 될까, 저도 종종 의구심이 듭니다. 기술이 수단에 머물기 위해서는 그 기술을 사용하는 사람의 의식이 먼저 깨어 있어야 합니다. 오늘 내가 켠 스마트폰 하나, 보고서에 적은 수치 하나가 누군가의 삶에 어떤 영향을 미치는지를 잊지 않는 것, 그것이 기술의 시대를 살아가는 우리가 할 수 있는 가장 작지만 가장 중요한 시작일 것입니다.