'오픈AI'가 인간과 대화가 가능한 생성형 인공지능(AI)인 챗GTP를 공개한 2022년 11월 30일 이후 1년7개월이 지났다. 인류 역사상 처음으로 인간이 아닌 다른 존재가 인간의 질문에 언어로 답을 내놓았다는 점에서 거대 언어 모델(Large Language Model, LLM) 기반 AI 등장은 그 자체로 충격이었다.
인공지능은 인간의 지능이 갖는 학습, 추리, 논증 등 기능을 갖춘 컴퓨터 시스템을 의미한다. 최규문 포스트AI AI교육센터장은 <프레시안>과 인터뷰에서 "오랫동안 진보가 없던 컴퓨터 시스템에서 펜티엄 차원을 넘어선 컴퓨터의 등장"이라고 설명했다.
"1초당 조단위 이상의 연산"을 하는 AI의 기술 발전 속도는 따라잡기 힘들 정도로 빠르다. 처음 등장할 때만 해도 자판을 쳐서 프롬프트(Prompt)를 입력했는데, 이제는 음성으로 입력, 즉 말로 해도 정확도가 매우 높다. 또 그간 선두를 달리던 오픈AI의 'GPT-4o'를 경쟁사 모델이 따라잡았다는 평가도 나왔다. 앤트로픽에서 최근 멀티모달 AI 모델 '클로드 3.5 소네트(Claude 3.5 Sonnet)'를 공개했는데, GPT-4o보다 높은 성능을 보여줬다고 한다. 그러나 이 순위는 오픈AI는 올해 안에 출시하겠다던 'GPT-5'가 나오면 또 뒤집힐 것이다.
구글 CEO 순다르 피차이는 "AI는 인간이 여태껏 공들인 것 중에서 아마 가장 중요해질 것"이라면서 "전기보다 인간의 삶을 더 변화시킬 수도 있다"고 강조했다. AI는 IT만이 아니라 제조업, 금융 등 각종 산업만이 아니라 음악, 그림 등 예술에도 영향을 미치고 있다.
국민 10명 중 1명 꼴로 생성형AI 이용…초기엔 흥미 위주로 접근 점차 생산성 증대 차원 활용
일반 대중들의 관심도 뜨겁다. 챗GPT, 바드, 클로드 등 생성형 AI를 써본 경험이 있다는 국민은 10명 중 1명 꼴인 것으로 조사됐다. (방송통신위원회.정보통신정책연구원, 2023년 지능정보사회 이용자 패널 조사) 전체 설문대상의 12.3%가 이를 써본 적이 있다고 응답했다. 텍스트 생성(81%) 이용 비율이 가장 높았으며, 음성·음악 생성(10.5%), 도메인 이미지 생성(4.8%), 이미지 생성(3.6%) 순으로 나타났다. 하루 평균 이용 시간은 약 41분이었다.
최 센터장은 생성형AI 이용에 대해 "챗GPT 등장 초기 글 쓰고, 그림 그리고, 노래 만들어보는 등 신기해하는 단계에서 구체적인 일상과 업무에 생산성 증대를 내기 위한 응용법 위주로 방향이 바뀌고 있다"고 설명했다. 최 센터장은 '프롬프트 잘 쓰는 3가지 원칙'으로 1) 역할을 부여하고 상황에 따른 목표를 자세히 제시할 것 2) 출력 형식과 분량을 지정하고 예시를 줄 것 3) 무엇이라고 명령할지 모르겠으면 더 좋은 답을 내놓을 수 있는 질문이 무엇인지 물어볼 것(질문을 질문하라)이라고 밝혔다.
이처럼 돈, 기술, 관심을 빨아들이고 있는 AI는 노동, 일자리, 교육, 윤리 등 사회에 끼칠 영향도 만만치 않다. 기업들이 "인간보다 1만배 똑똑한 초인공지능(ASI)의 개발을 위한 투자"를 공언(손정의 일본 소프트뱅크그룹 회장, 6월 21일 주주총회 발언)하고 있는 상황에서 AI가 우리에게 던져준 질문은 무궁무진하지만 결국 누구에게, 어떤 이득을 가져다줄 것인가로 요약될 수 있다.
자신이 개발한 AI 기술로 일자리를 위협받는 프로그래머…일자리, 교육, 가짜 뉴스 등 도전과 위협
최규문 센터장은 생성형 AI 등장 이후 아이러니하게 컴퓨터 프로그래머가 가장 먼저 일자리를 위협받는 상황이 왔다면서 "웹디자이너, 카피라이터, 애널리스트 등도 위협 받고 있으며, 의료, 회계, 법률 등도 전문직들도 기술적으론 얼마든지 가능하지만 법률적 규제에 의해 막고 있는 상황"이라고 설명했다. '챗GPT 어머니'로 불리는 미라 무라티 오픈AI 최고기술책임자(CTO)가 최근 다트머스대학교에서 열린 초청 대담에서 AI로 인해 사라질 일부 직업은 원래 존재할 필요도 없었다는 취지로 발언해 비판이 일기도 했다.
최 센터장은 AI만이 아니라 과학 기술이 퇴보한 전례는 찾아보기 힘들다면서 일자리, 교육, 가짜 뉴스를 포함한 허위 정보 등 예상되는 부작용을 완화시키기 위한 사회적 논의가 필요하다고 강조했다.
AI와 함께 살아가야 하는 아이들 문제에 대해선 최 센터장은 "AI를 활용해 우리가 원하는 최종적인 답을 얻어내기 위해 어떻게 질문해야 하는지를 아는 것도 또 하나의 실력이 됐다"며 결국 '질문'을 하기 위한 '사고력'을 길러야 한다는 점에선 크게 다를 것이 없다고 말했다.
그는 "코딩 규칙을 알게 되면 AI를 활용하는 과정에서도 오류가 발생하지 않도록 질문을 할 수 있게 된다"며 코딩 교육의 중요성을 강조했다.
최 센터장은 '가짜 뉴스' 문제에 대해선 "기술 진화의 정점에서 나온 산물로 막는 게 쉽지 않다"며 "보이스피싱도 사례를 알려줘서 예방 활동을 하듯이 공익적 사용에 대한 사회적 합의를 마련하는 것이 필요하다"고 말했다.
또 인터넷과 마찬가지로 접근권을 포함한 '기술 격차'의 문제에 대해선 "윈도우와 리눅스와의 경쟁에서 오픈소스인 리눅스가 통일을 했던 것처럼 AI에서도 같은 상황이 반복될 수 있다. 오픈소스의 성장은 사회적으로 지원한다면 돈이 없어서 AI를 이용하지 못하는 현상을 줄일 수 있다"고 말했다.
"AI 대부"로 불리는 제프리 힌턴 캐나다 토론토대 명예교수, 딥러닝 창시자 요슈아 벤지오 몬트리올대 컴퓨터과학 교수 등 AI 석학 25명은 지난 5월 서울에서 열린 'AI 안전 정상회의'를 앞두고 "세계는 AI에 충분히 준비돼있지 않다"고 경고하는 공동 성명서를 발표했다. 'AI 오용과 무분별한 활용'을 통제할 수 있는 방안을 마련하지 못할 경우 인류의 생존 자체가 위협 받을 수도 있다는 경고까지 나오고 있다.
최 센터장은 AI에 대한 관심이 이런 위험을 낮출 수 있다면서 아직 제도가 기술 발전 속도를 따라가지 못하고 있지만, 대중들이 관심을 갖고 소수의 기술 독점으로 발생할 수 있는 위험을 최소화하기 위한 대책 마련을 요구해야 한다고 강조했다.
(최규문 센터장과 인터뷰는 유튜브 채널 쿠픽을 통해서도 공개됐습니다. 더 자세한 내용은 영상 인터뷰를 참고해주세요. 편집자주)
전체댓글 0