'지능 혁명' 이후 인공지능과 경쟁하게 될 노동자들
어떤 이들은 벌써부터 인간과 기계가 융합되면서 태어날 '버전 3.0 인체' 나
'포스트 휴먼' 같은 것들을 이야기 한다. 인공지능이 이미 우리 곁에 와 있지만
이런 이야기들이 아직은 SF영화에나 나오는 허풍처럼 들리는 것이 사실이다.
하지만 하드웨어의 진화에는 물리적 시간이 걸려도, 알고리즘 진화는 시간의
장벽이 낮다. 코로나19가 번지자마자 영국 런던 킹스컬리지와 미국 매사추세츠
종합병원 연구팀은 영국 보건의료기업 ZOE와 함께 코로나19 감염 여부를
검사하는 인공지능 프로그램을 개발했다.
알파고와 같이 바둑만 두는 인공지능이 아니라 사람처럼 모든 영역에서
생각하고 응용하는 지능, 즉 '범용인공지는 AIG(Artificial General Intelligence)'은
기계 지능의 완성 단계라고 볼수 있다.
막스 테크마크는 <라이프 3.0>에서 인공지능 기술이 인간 노동자들을
"창의적인 일이 아닌 로테크, 저임금 노동으로 밀어낼 것"이라는
우울한 예언을 내놨다.
특히 교육 수준이 낮은 사람들, 여성들, 임금 수준이 낮은 사람들에게 더 큰
영향을 미칠 가능성이 높다는 관측도 나온다. 지금 사회에서 혜택을 덜 받고
덜 누린 사람들이 가까운 미래에 더 빨리 밀려날 것이라는 얘기다. 하지만
그들뿐만 아니라 거의 모든 이들이 일의 성격, 보수, 노동조건의 변화를 겪을 것이다.
앞서 이야기한 저임금 미숙련 노동이 아니라, 이른바 전문가의 일부터 인공지능
혹은 인공지능형 로봇에 먼저 밀려날 수도 있다.
실제로 의사, 변호사, 기자, 주식 트레이더의 일에 이미 인공지능이 도입되기 시작했다.
인공지능 기술이 발전하면서 일하는 사람들은 업무를 할당하는 소프트웨어
알고리즘에 점점 더 매이게 된다. 고용, 평가, 보상 등 과거엔 '윗사람'들이 했던 일이
점차 인공지능에 맡겨진다. UPS, 우버, 아마존등의 기업은 이미 '알고리즘 관리'라고
불리는 이런 감독 시스템을 도입한 지 오래다.
보고서에 따르면 아마존에서는 인공지능이 매일 그날의 작업 속도를 정해
노동자들에게 배분한다. 미네소타 주의 아마존 창고에서는 하루 세 번
생산성 기준에 미달된 직원은 해고된다.
필라델피아의 병원과 계약해 의료용품을 제작하는 노동자들은 명확하게
이해하기도 힘든 인공지능의 계산법에 따라 정해진 작업 기준을 따라야 한다.
아웃백 스테이크하우스의 직원 역시 알고리즘의 감시를 받는다. 인공지능이
정하는 작업 규율은 노동자들의 파악해 얻은 정보로부터 나온 것이지만
정작 당사자들은 그 계산법을 모른다.
보고서 작성자 가운데 한 명으로 2018년 구글 파업의 주요 조직원이기도
했던 메러디스 휘태커는 "기업들은 소수의 기술자와 최고위층만이 이해할 수
있는 플랫폼을 만들었고, 이 플랫폼은 수익과 주주들의 이익을 늘리는 데
최적화돼 있다"고 말했다.
노동자의 수입을 결정짓는 노동시간이 인공지능의 결정에 따라 늘거나 줄고,
노동의 질을 좌우하는 작업량과 속도도 인공지능이 정한다.
보고서는 "유니레버, 골드만삭스, 타깃 등의 주요기업은 누구를 고용하고
누구를 해고할지를 결정하는 과정에도 인공지능을 도입했다" 고 지적한다.
저자들은 이 보고서에서 "인공지능 시스템 때문에 피해를 입지 않으려면
노동조합을 비롯한 노동자 조직을 더욱 활성화하고 가입할 필요가 있다' 고 했다.
노동자가 '착쥐적인 인공지능'에 이의를 제기할 수 있어야 하고, 노조가 이를 돕는
역할을 맡아야 한다는 것이다. 앞으로 노동자가 싸워야 할 주된 대상은 몽둥이를 든
용역업체 직원이나 회사 간부가 아니라 알고리즘이라는 형체 없는 존재가 될 수도 있다.
차별과 편견까지 학습하는 인공지능
인공지능과 관련된 또 하나의 중요한 논쟁거리는 '차별과 편견'이다.
2018년 10월 아마존의 인공지능 채용 프로그램이 논란 끝에 폐기됐다.
이 프로그램은 구직자들의 이력서에서 '여성'을 찾아내 감점했다.
여성이라고 쓰여있거나 '여성'이라는 단어가 들어간 대학 혹은 동아리
경력을 포착해 점수를 깎은 것이다. 아마존에서 인공지능 프로그램에
'여서의 점수를 깍으라'는 지시를 입력한 것은 물론 아니었다.
그럼에도 인공지능은 기업의 관행으로부터 여성차별을 '배웠다'.
10년간의 채용 기록을 바탕으로 '선호 패턴'을 산출한 뒤 채용할 사람을
추천하는 방식으로 가동됐기 때문이다. 인공지능은 기업의 오랜 성차별적
관행을 따랐을 뿐이었다.
아마존 채용 프로그램과 마찬가지로 인공지능의 이런 편향을 놓고 인공지능
차체를 탓할 수는 없다. 인간 사회의 편견과 차별을 인공지능이 그대로 학습한
것일 뿐이기 때문이다. 인간이 하는 일에도 편견과 차별은 늘 작동한다.
2001년 9.11 테러 이후 미국에서는 '무슬림 이름'을 가졌다는 이유로 테러범
취급을 받고 공항에서 항공기 탑승을 거부당하거나 입국 금지를 당한, 혹은
채용 차별을 당한, 나아가 테러범으로 오인을 받아 억울하게 갇혀 고문까지
당한 사례가 있었다. 인공지능은 이런 억울한 피해를 단시간에 대규모로
만들어 낼 수 있다.
게다가 인공지능의 그런 판단은 '통게에 기반한 정확성'이라는 인간의 신뢰까지
받게 될 가능성이 높다.
'인공지능의 추적과 통제'라는 이슈는 핍박받는 소수민족만의 문제가 아니다.
코로나19시대를 맞아 우리는 개인의 일거수일투족을 파악할 수 있게끔 개인정보
추적권을 방역 당국에 모두 내줬다. 안전과 시민의 자유 사이에서 개인의
프라이버시를 어디까지 포기할 것인가는 깊이 고민해 봐야 할 문제다.
인공지능 알고리즘과 관련된 이슈 또한 마찬가지다.
더 편리하고 더 안전해지기 위해 어디가지 알고리즘에 맡길 것인지에 대한
문제가 점점 심각하게 떠오르고 있다.
인공지능을 바꾸고 싶다면 인간부터 바뀌어야 한다.
인공지능 전문가들은 미래를 맞이하는 우리에게 필요한 것은 현재의 민주주의를
강화하고 감시하는 일이라고 말한다. 지금 인간들의 문제를 해결하는 것이야말로
인공지능 시대를 준비하는 방법이라는 뜻이다. 테그마크는 우리가 바라는 미래가
어떤 미래인지 우리는 어떤 인공지능을 원하는지를 스스로 정해야 한다며
"우리의 오만함부터 바꿔야 한다"고 지적한다.
2017년 1월, 아실로마에 다시 과학자들이 모였다. 이번엔 인공지능을 연구하는
이들이 만나 이 신기술이 가져올 미래와 위협을 논의하고 인공지능이 인류에
혜택을 줄 수 있도록 할 방안을 모색했다.
이 회의를 통해 '아실로마 인공지능 원칙'이라는 23개의 원칙이 만들어졌다.
전문가들의 이런 움직임을 희망적이지만, 전문가들에게 모든 발전을 맡기고
관료주의에 모든 규제를 맡기는 것은 위험하다. 제아무리 복잡한 기술이라도
관심을 가지고 목소리를 내는 시민들과 그런 시민들의 네트워크를 기반으로
발전해야 사람이 기술로부터 소외되지 않는다. 가깝게는 아무 대책없이
일자리에서 무더기로 밀려나지 않기 위해, 멀게는 우리가 기계나 기술로부터
버림받지 않기 위해 우리에게 가장 절실한 것은 바로 민주주의다.
'책 읽기' 카테고리의 다른 글
10년 후 세계사 두 번째 미래-6 (0) | 2022.02.21 |
---|---|
10년 후 세계사 두 번째 미래-5 (0) | 2022.02.18 |
10년 후 세계사 두 번째 미래-4 (0) | 2022.02.14 |
10년 후 세계사 두 번째 미래-2 (0) | 2022.01.08 |
10년 후 세계사 두 번째 미래-1 (0) | 2022.01.07 |