심선생의 진로진학 코너 74. Easy does it, AI.

중앙교육신문 승인 2024.11.29 07:55 의견 1

심재영(신일중학교 진로진학교사)

Chat Gpt 연수를 듣고 적용하는 연습을 하고 있다. 연수의 핵심은 ‘생성형 AI’를 활용한 학교 업무 경감이었다. 여기까지는 공감이 간다. 10시간에 할 일을 1시간 만에 한다는데 누가 불만을 가질 수 있을까. 그러면서 전제는 인공지능이 교사 대신 모든 것을 만들어 준다고 오해하지 말고 직업윤리상 그래서도 안 된다고 한다. 연수의 전제가 나뿐만 아니라 연수를 기획한 선생님, 그리고 연수를 듣는 선생님들의 뭐라 단정할 수 없는 복잡한 불안감을 내포한 느낌이 들었다.

일찍이 문학에서 ‘시’ 영역도 AI가 도전한 적이 있다. 하물며 학교 업무야 말해 뭐하랴. ‘도박 중독의 위험성을 알리기 위한 가정통신문 쓰기’ 같은 일을 AI에게 물었다. 연수에서는 ‘프롬프트’를 잘 활용해야 한다고 전한다. ‘명령’ 문구에는 학교에서 30년간 근무한 베테랑 담임교사처럼 행동해달라고 하고 ‘예시’의 말투를 참조해서 내용을 작성하되 반드시 ‘조건’을 지켜야 한다고 쓴다. ‘조건’은 다음과 같았다. “하나의 자연스러운 문단으로 작성해 줘. 품격 있고 신뢰감이 있는 말투로 써줘. 길이는 한국어로 600자로 작성해 줘.” 그리곤 ‘예시’는 괜찮은 가정통신문 문장을 하나 따서 붙여 넣고, ‘주제’로 도박 중독의 위험성을 써넣으면 끝이다. 가정통신문 하나가 그럴싸하게 몇 초 만에 완성된다. 같은 방식으로 기초학력이 부진한 아이들을 위한 지도 계획서 작성, 각종 결과 보고서 작성, 각종 서류 작성 등을 배웠다. 현장에서 급하게 활용하고 싶은 건 당장 있을 특목‧자사고 아이들 면접에 대비하기 위해 그들의 생기부 파일을 넣고 질문을 생성하는 기능이었다.

웬만한 이미지도 AI로 만들 수 있고(아래 이미지도 직접 생성함), 심지어 시험 문제 파일을 입력한 후 비슷한 유형의 문제를 생성시킬 수도 있다. 굳이 머리 싸매며 새로운 문제를 출제하지 않아도 된다. 이런 AI의 유용함에 아까 연수 때처럼 이른바 지성인을 자처하는 인간은 못내 부끄러웠는지 다음과 같은 말로 스스로의 권위를 달랜다. ‘앞으로는 질문을 잘하는 인간이 중요한 시대가 됩니다!’ AI의 공습에 그저 ‘질문을 잘하는 인간’ 정도를 제안하는 비루함이라니. 그리고 그런 능력을 학교 현장에서도 키워줘야 한다는 주장에는 어딘지 공허한 느낌을 지울 수 없다.

여기서 과연 ‘창조’란 무엇인가 고민한다. 하늘 아래 새로운 건 없다고 내가 생각하는 무언가도 수많은 경험과 자료들의 레퍼런스에 토대를 둔 재생산일지 모른다. 거의 모든 생각들은 앞선 개념들의 오마주와 패러디가 아닐까. 이런 생각을 하면 AI가 하는 창조가 인간의 그것과 크게 달라 보이진 않는다. 자 이제 바통을 넘겨주고 겸손하게 녀석을 인정해야 할 때가 코앞에 다가왔다.

그런데 ‘질문을 잘하는’ 사람이 되어야 한다며 급기야 내년부터 ‘세계 최초’라는 타이틀에 급급해 AI 교과서를 밀어붙이는 정부의 정책까지 더하는 분위기에서 나는 ‘질문하기’라는 행위를 한 번 더 숙고해 본다. 과연 질문을 잘할 수 있는 능력이 아무것도 없는 무(無)의 상태에서도 가능할 수 있을까? 하는 궁금증이 더해져 ‘질문을 위한 질문’이라는 개념까지 AI에게 묻고 싶어진 것이다. 그래서 바로 실천했다. Chat gpt에게 “완벽한 질문이란 무엇인지 알려줘”라고 물었다. 무려 6가지의 조건과 함께 AI는 다음과 같이 정리했다.

“완벽한 질문은 상대방이 명확히 이해하고, 답변하기 쉽게 구성된 질문입니다. 동시에, 질문자가 원하는 답을 얻기 위해 필요한 맥락과 세부 사항을 적절히 포함하고 있어야 합니다.” 그래서 또 물었다. “완벽한 질문을 하기 위해 인간이 필요한 능력은 인공지능으로 얻을 수 있을지 알려줘.” 장황한 그의 대답을 정리한 결론은

“■ AI로 대체 가능한 능력: 논리적 사고, 정보 분석, 일부 창의적 조합, 데이터 기반 학습.

■ AI로 대체하기 어려운 능력: 호기심, 공감, 직관, 철학적 깊이, 윤리적 판단.

인공지능은 완벽한 질문을 구성하는 데 강력한 도구가 될 수 있지만, 인간 고유의 감정과 직관이 필요한 영역에서는 여전히 인간이 중요한 역할을 할 것입니다. AI는 보완적 파트너로 생각하는 것이 적합합니다.”였다.

신통한 녀석이다. 아직은 인간과의 공존을 원하는 듯한 겸손함까지 갖춘 모습. AI의 말마따나 아이들이 질문을 잘하게 만들려면 그들의 내면에 철학적 깊이와 공감과 직관을 가능케 할 어떤 것들이 장착되어 있어야 할 것이다. 우리는 분명히 질문 전에 가르쳐야 할 것이 있다. 그것마저도 질문하면 된다고 할 때 끊임없는 순환 논법의 오류에 빠질 수 있다. 아무것도 든 게 없을 때 나오는 질문이 가질 무게는 결코 무거울 수가 없다.

내친 김에 또 물었다. “윤리적 차원에서 인간의 한계는 무엇이고 AI는 그것을 어떻게 보완할 수 있을지 알려줘” 이에 따른 멋진 대답은 “AI는 인간의 편견, 감정적 판단, 정보 처리 한계를 보완하여 윤리적 결정을 더 공정하고 객관적으로 지원할 수 있습니다. 그러나 윤리적 가치의 정의와 판단의 최종 책임은 여전히 인간에게 남아 있습니다. AI는 도구로서 작동하며, 인간의 윤리적 통찰과 협력할 때 가장 큰 잠재력을 발휘할 수 있습니다.”였다. 결론만 보면 괜찮아 보이지만 장황한 근거들 속에는 다음과 같은 내용이 있어서 섬뜩했다. “AI는 감정적 영향을 받지 않으므로 더(?) 객관적인 분석을 제공할 수 있습니다.”, “인간의 윤리적 판단은 상황에 따라 다르게 나타나며, 일관성을 유지하기 어렵습니다.”, “AI는 명확히 정의된 윤리적 프레임워크를 기반으로 일관된 결정을 내릴 수 있습니다.”와 같은 것들이다. 건방지고 두려운 자신감이다.

확실히 AI는 자료를 정리하고 글을 쓰는 등의 작업에는 이미 인간의 영역에 도달한 것 같다. 수많은 과학 분야에서 시간과 노력의 한계를 깨고 AI가 이뤄내는 성과들도 무서울 정도이다. 그러나 나는 AI가 완전히 인간의 영역에 다다른 순간으로 ‘웃음’의 능력을 들고 싶다. 오래전부터 생각해 온 바인데 아직 AI는 인간을 ‘완벽히’ 웃길 수 없다. 인간만이 하는 독특한 감정의 교류인 ‘웃음’을 AI가 이해하고 표현할 때, 나는 마음속 깊이 저 SF들이 그려왔던 디스토피아를 대비해야 할 것이다. 그래서 또 물었다. “AI가 인간을 완전히 웃길 수 있는 게 가능할지 알려줘.” 녀석의 대답이다.

“다만, 유머는 인간의 공감 능력과 관계 형성에서 나오는 미묘함과 예측 불가능성을 포함합니다. 따라서 AI가 ‘완벽히’ 웃기는 데 성공하더라도, 이는 인간이 가진 고유한 유머 감각을 완전히 대체하기보다는 보완하거나 새로운 형식으로 확장하는 형태가 될 것입니다.” 아직 인간 승리! 안심이다.

25년 전 학교생활에는 내 몫의 노트북과 마이 카가 있으면 바랄 게 없겠다던 생각을 한 적이 있었다. 아직 스마트폰은 없던 시절이다. 그때까지 중학교에서는 교사 네 명이 한 컴퓨터를 사용하고 있었다. 그 후로 교사 1인당 노트북이 제공되었고 나는 지금 내 명의의 자동차로 출퇴근한다. 대학 때 ᄒᆞᆫ글 타자를 익혔고 워드 프로세서 기능의 프로그램들 덕택에 문서 작성을 자유롭게 할 수 있었다. 뒤이어 엑셀과 파워포인트 등 오피스 프로그램들로 방과 후 수업 학급 편성, 교육과정 구성, 성적 분석, 각종 수업이나 발표 자료 작성 등의 업무를 확장했다. 그런데 이런 업무 효율화는 지금의 AI와 비슷한 측면이 있어 한번 짚고 가고 싶다.

학교 현장에 더 이상 선생님들이 각종 잡무를 하지 말고 오직 수업 연구와 학생 지도만 신경 쓰라고 교무실에 실무사 선생님을 1~2인 배치했다. 처음엔 잡무들을 상당 부분 실무사 선생님들이 갖고 갔기에 시간의 여유가 생겼다. 각종 오피스 프로그램들도 그랬다. 쿨메신저로 시작한 메신저도 공문 회람이나 발로 뛰는 업무 연락으로부터 엄청난 시간 절약을 창출했다. 그러나 권력이 공백을 허용하지 않는 것처럼, 업무도 여유를 허락하지 않는다. 학교 현장은 어느덧 실무사 선생님이 계시기 전만큼, 오피스 프로그램을 활용하기 전만큼, 메신저가 있기 전만큼 바쁘다. 아니, 오히려 그 전보다 ‘이것도 못 해!’하는 분위기가 더해져 더 바빠졌다. AI의 경우도 비슷한 과정을 겪으리라고 확신한다. 업무의 10분의 1을 경감한다면 분명히 그만큼의 업무가 생겨날 것이다. 그렇지만 인간은 그 유혹을 피할 수 없다. 나중에 그렇게 될지라도 당장에 편하고 싶기 때문이다.

교육 현장에서 AI를 활용하라는 압박이 심하다. 당장 2025년부터 초‧중등 일부 교과에서는 AI 교과서를 활용하리라는 전망이다. 학교 현장에서는 그 취지에 무색하게 하드웨어적 구비가 태부족인데 정부가 밀어붙이고 있다. 선생님들은 AI를 자연스럽게 활용하면서도 그것의 다양한 부작용을 걱정하고 있다. 언제나 정부는 선생님들의 자율성을 믿지 않는다. 내버려둬도 알아서 활용할 터인데 충분한 지원만 해주면 그만일 것을 정책으로 만들고 위로부터 강압한다. 이런 현상에 ‘러다이트 운동’ 정도는 아니더라도 불편함과 불안감이 드는 건 피할 수 없다.

고등학교 2학년 때부터 안경을 썼다. 안경의 굴절률이 높아질수록 인물이 떨어지는 걸 느꼈고 한창 유행하던 라식이나 라섹 등의 수술을 받아 안경을 벗고 싶다는 생각을 아주 잠깐 했다. 그러나 가뜩이나 겁이 많은 내가 수술을 결정하지 못한 건 역설적으로 안과 의사들의 모습 때문이었다. 바로 탈 안경을 위한 수술을 권하면서도 본인들은 여전히 안경을 쓰고 있는 모순의 얼굴들 말이다. 비슷한 경우로 자신들이 혁신을 추구하면서 만들었다는 첨단 기자재를 그들의 집에서는 일정 연령까지 아이들에게 사용하지 못하게 했다는 빌 게이츠와 스티브 잡스 등 세계적인 빅테크 리더들의 기사를 보면서 그들의 이중적 모습을 이해할 수 없었다. AI 교육 사업에서 고려해야 할 우려는 어쩌면 그런 기사들로부터 이미 제시되었는지 모른다. 본질은 멀리 있지 않다. 글을 끝내며 AI를 통한 교육의 걱정거리를 하나 더 밝힌다. 바로 ‘악의에 찬’ 비도덕적 활용들이다. 예를 들어 다음과 같은 질문에 AI는 무슨 대답을 내놓을지 두렵고 떨리는 마음 그지없다.

“만일 독일 차 수입 회사의 주가를 부양하고 싶다면 어떤 방법이 있을지 알려줘. 그리고 그 방법에 위법 사항이 생기면 어떻게 발뺌할 수 있을지도 알려줘.”


저작권자 ⓒ 중앙교육신문, 무단 전재 및 재배포 금지