'돌봄 인력난', AI 돌봄로봇이 해결한다?

[내가 만드는 복지국가] 돌봄의 자동화, 불평등도 자동화된다

AI 시대, 우리가 놓쳐서는 안 될 것이 많다

우리는 지금 빠르게 달리고 있다. 인공지능(AI), 디지털 전환, 초고령사회 대응—쏟아지는 과제들 앞에서 사회는 속도를 높이는 데 골몰한다. 그런데 빠르게 달릴수록 놓치기 쉬운 것들이 있다. 역사를 돌아보면, 산업화의 과실이 모두에게 고르게 돌아가지 않았듯, 기술 혁신의 혜택 역시 항상 공평하게 배분되지 않았다. AI 시대를 맞이하는 지금, 한국사회가 반드시 붙들고 가야 할 가치가 있다. 바로 성평등이다.

인력난의 주인공은 누가 될 것인가

2024년 12월, 한국은 공식적으로 초고령사회에 진입했다. 65세 이상 인구가 전체의 20%를 넘어선 것이다. 정부와 지방자치단체는 앞다퉈 AI 돌봄로봇 보급을 해법으로 내세우고 있다. 홀로 사는 노인의 말벗이 되는 반려로봇, 배변을 자동으로 처리하는 케어로봇, 낙상을 감지해 119에 자동으로 연결하는 스마트 기기들이 속속 요양 현장에 배치되고 있다. 'AI 돌봄로봇 몇 대 설치'라는 식의 양적 성과는 연일 홍보된다.

그런데 잠깐 멈추어 물어야 할 것이 있다. AI가 해결하겠다는 '돌봄 인력난'의 현장에서 실제로 일하는 사람은 누구인가? 전국 요양보호사의 약 90%는 여성이다. 평균 시급은 최저임금 수준에 머물고, 허리와 무릎을 혹사하는 근골격계 질환은 직업병에 가깝다. 사회는 오랫동안 돌봄을 '여성의 천성'으로 여기며 저임금과 낮은 지위를 당연하게 받아들여 왔다. '인력난'이라는 말 뒤에는, 바로 그 구조적 저평가를 감수하며 노인을 돌봐온 여성 노동자들이 있다. 기술이 해결하겠다고 나선 문제의 핵심은, 사실 기술 이전의 문제다. 돌봄노동이 왜 이토록 기피되는 일이 됐는지를 먼저 묻지 않은 채 로봇을 투입하는 것은, 구조의 균열을 기술로 덮는 일에 가깝다.

AI는 편견도 학습한다

AI가 성평등의 구원자가 될 것이라는 기대는 일찍부터 흔들렸다. 아마존은 2018년 자체 개발한 AI 채용 시스템을 내부 실험단계에서 폐기했다. 알고리즘이 지난 10년간의 채용 이력—남성 중심으로 쌓인 데이터—을 학습하여, 이력서에 '여성'과 관련된 단어가 포함되면 자동으로 감점하는 결과를 낳았기 때문이다. AI 스피커는 기본값으로 여성의 목소리를 설정하며 복종적·보조적 이미지를 강화하고, 안면인식 알고리즘은 흑인 여성을 백인 남성보다 훨씬 부정확하게 인식한다. AI는 중립적인 기계가 아니다. 사회가 축적해온 불평등을 데이터로 삼아 학습하고, 그것을 더 빠르고 넓게 재생산하는 장치가 될 수 있다.

돌봄 영역도 예외가 아니다. '돌봄은 여성의 일'이라는 사회적 고정관념이 데이터에 반영되면, 돌봄 AI는 그 고정관념을 알고리즘으로 굳혀버린다. 더 심각한 것은, 이 과정이 눈에 보이지 않는다는 점이다. 사람이 내리는 차별적 결정은 문제 제기라도 할 수 있지만, 알고리즘이 내리는 결정은 마치 객관적 판단처럼 포장된다. '데이터가 그렇게 말한다'는 말 뒤에 편견이 숨는 것이다.

돌봄 기술이 설계될 때 여성 노동자의 목소리가 배제된다면, 기술은 현장의 문제를 해결하는 것이 아니라 현장의 불편을 가중시킨다. 실제로 일본에서는 수백억 엔을 들여 도입한 첨단 돌봄로봇 상당수가 요양원 창고에 방치됐다. 공학자 중심으로 설계된 로봇이 좁은 복도와 어수선한 침대 공간으로 가득한 실제 요양 현장에서는 제대로 작동하지 못했고, IoT 기기 관리와 오류 대응이라는 새로운 노동을 요양보호사들에게 고스란히 떠넘겼다. 기술이 노동을 줄인 것이 아니라, 다른 종류의 노동을 추가한 셈이다.

누가 AI를 설계하는가

문제의 뿌리는 더 깊은 곳에 있다. 전 세계 생성형 AI 이용자 가운데 남성이 58%, 여성이 42%를 차지한다. 이용의 격차도 문제지만, AI를 개발하고 설계하는 인력의 성비 불균형은 이보다 훨씬 크다. 기술을 만드는 사람들의 경험이 기술의 방향을 결정한다. 돌봄의 무게를 직접 짊어진 적 없는 사람들이 돌봄 AI를 설계할 때, 그 기술이 현장 여성 노동자의 실질적 어려움을 제대로 반영하기란 구조적으로 어렵다.

이것은 단순히 '여성 개발자를 더 뽑자'는 차원의 문제가 아니다. 기술 개발의 목표와 우선순위를 누가 정하는가, 어떤 문제를 해결할 가치가 있다고 판단하는가—이 의사결정 구조 자체가 젠더 편향을 띠고 있다는 뜻이다. 2025년 유엔여성기구가 서울에서 개최한 포럼에서도 이 점이 명확히 제기됐다. 기술 설계 과정에서 성평등 원칙이 배제될 경우, 디지털 기술은 기존의 성별 불평등을 심화시키는 도구로 전락할 수 있다는 경고였다.

기술 낙관주의는 종종 구조적 문제를 가린다. AI가 돌봄을 '효율화'한다는 말 속에는, 돌봄노동의 저평가를 그대로 유지한 채 비용만 절감하겠다는 논리가 숨어 있을 수 있다. 자동화로 절감된 비용이 노동자의 처우 개선으로 이어지는가, 아니면 다른 곳으로 흡수되는가—이 질문에 답하지 않는 기술 도입은 반쪽짜리 해법이다.

발전의 속도가 빠를수록 놓치면 안 되는 것이 있다

역사는 반복된다. 산업화 시대에도 기계가 인간의 노동을 대신하며 생산성이 폭발적으로 늘었지만, 그 혜택은 오랫동안 특정 계층과 성별에 집중됐다. 여성이 공장 노동자로 대거 편입됐을 때도, 기계를 소유하고 이윤을 가져간 것은 여성이 아니었다. AI 시대에도 같은 패턴이 반복될 위험이 있다. 기술 발전의 속도가 빠를수록, 그 속도에 올라타지 못하는 사람들—혹은 속도를 유지하기 위해 보이지 않는 곳에서 버팀목이 되는 사람들—은 더 쉽게 잊힌다.

AI 시대의 성평등은 '여성도 AI를 잘 사용하게 하자'는 디지털 격차 해소만으로 달성되지 않는다. 더 근본적인 전환이 필요하다. 돌봄노동을 '여성의 천성'이 아니라 사회가 함께 책임지는 공공재로 재정의하는 것, 요양보호사의 임금과 지위를 현실화하는 것, 그리고 AI를 포함한 기술의 설계·평가·도입 과정에 돌봄 현장 여성 노동자의 참여를 제도적으로 보장하는 것—이것이 선행돼야 한다.

AI가 돌봄의 질을 높이고 노동자의 신체적 부담을 실질적으로 줄여줄 수 있다면, 그것은 분명 반길 일이다. 그러나 그 가능성은 기술 자체에 있는 것이 아니라, 기술을 어떤 가치관 위에서 설계하고 사용하느냐에 달려 있다.

AI는 도구다. 도구는 그것을 쥔 사회의 가치관을 반영한다. 지금 우리가 달리는 방향이 맞는지, 달리면서 무엇을 떨어뜨리고 있지는 않은지—한 번쯤 뒤를 돌아볼 때다. 성평등은 발전의 속도를 늦추는 걸림돌이 아니다. 오히려 그것이 결여된 발전은 결국 더 많은 사람을 뒤에 남겨두고 혼자 달리는 발전이다. 모두를 위한 AI 시대는, 돌봄을 바라보는 우리의 시선이 바뀔 때 비로소 시작된다.

▲ 일본 와세다대가 개발 중인 AI 기반 간병 로봇. ⓒ로이터=연합뉴스

전체댓글 0

등록
  • 최신순