banner

블로그

Dec 10, 2023

OpenAI는 시간당 2달러 미만의 비용으로 케냐 근로자를 사용했습니다: 독점

내용 경고: 이 이야기에는 성적 학대에 대한 설명이 포함되어 있습니다.

ChatGPT는 지난 11월 출시 당시 2022년 가장 인상적인 기술 혁신 중 하나로 호평을 받았습니다. 강력한 인공 지능(AI) 챗봇은 Megan Thee Stallion의 스타일로 재구성된 셰익스피어 소네트부터 5세 어린이가 이해할 수 있는 언어로 설명된 복잡한 수학 정리에 이르기까지 거의 모든 주제에 대한 텍스트를 생성할 수 있습니다. 일주일 만에 사용자가 100만 명이 넘었습니다.

ChatGPT의 창시자인 OpenAI는 현재 Microsoft의 잠재적인 100억 달러 투자를 포함하여 290억 달러 가치의 자금을 조달하기 위해 투자자들과 협의 중인 것으로 알려졌습니다. 그러면 2015년 초지능 기계 구축을 목표로 샌프란시스코에서 설립된 OpenAI가 세계에서 가장 가치 있는 AI 회사 중 하나가 될 것입니다.

그러나 성공 스토리는 실리콘 밸리의 천재들만의 이야기가 아닙니다. ChatGPT를 덜 독성으로 만들기 위해 OpenAI는 시간당 2달러 미만을 받는 케냐 노동자를 아웃소싱한 것으로 TIME 조사에서 밝혀졌습니다.

이 작업은 OpenAI에 매우 중요했습니다. ChatGPT의 전신인 GPT-3은 이미 문장을 연결하는 인상적인 능력을 보여주었습니다. 하지만 앱이 폭력적이고 성차별적이며 인종차별적인 발언을 무심코 표현하는 경향이 있었기 때문에 판매가 어려웠습니다. 이는 인간 언어의 방대한 저장소인 인터넷에서 스크랩한 수천억 단어에 대해 AI가 훈련을 받았기 때문입니다. 그 거대한 훈련 데이터 세트는 GPT-3의 인상적인 언어 능력의 이유였지만 아마도 가장 큰 저주이기도 했습니다. 인터넷의 일부는 독성과 편견으로 가득 차 있기 때문에 훈련 데이터에서 해당 섹션을 제거하는 쉬운 방법이 없었습니다. 수백 명의 인간으로 구성된 팀이라도 막대한 데이터 세트를 수동으로 탐색하는 데 수십 년이 걸렸을 것입니다. OpenAI가 이러한 피해를 억제하고 일상적인 사용에 적합한 챗봇을 생성할 수 있는 것은 추가적인 AI 기반 안전 메커니즘을 구축해야만 가능했습니다.

더 읽어보기: AI 챗봇이 점점 더 좋아지고 있습니다. 그러나 ChatGPT와의 인터뷰에서 한계가 드러났습니다.

이러한 안전 시스템을 구축하기 위해 OpenAI는 증오심 표현과 같은 유해한 언어를 감지하여 플랫폼에서 제거하는 데 도움이 되는 AI를 구축하는 것이 가능하다는 것을 이미 보여준 Facebook과 같은 소셜 미디어 회사의 플레이북을 따랐습니다. 전제는 간단했습니다. AI에 폭력, 증오심 표현, 성적 학대 등의 라벨이 붙은 사례를 입력하면 해당 도구가 야생에서 이러한 형태의 독성을 탐지하는 방법을 학습할 수 있다는 것입니다. 해당 탐지기는 ChatGPT에 내장되어 훈련 데이터의 독성을 반영하는지 확인하고 사용자에게 도달하기 전에 필터링합니다. 또한 미래 AI 모델의 훈련 데이터 세트에서 유해한 텍스트를 제거하는 데 도움이 될 수도 있습니다.

이러한 라벨을 얻기 위해 OpenAI는 2021년 11월부터 케냐의 아웃소싱 회사에 수만 개의 텍스트 조각을 보냈습니다. 해당 텍스트의 대부분은 인터넷의 가장 어두운 곳에서 가져온 것으로 보입니다. 그 중 일부는 아동 성적 학대, 수간, 살인, 자살, 고문, 자해, 근친상간 등 상황을 생생하게 묘사했습니다.

OpenAI의 케냐 아웃소싱 파트너는 Google, Meta, Microsoft와 같은 Silicon Valley 고객을 위한 데이터 라벨링을 위해 케냐, 우간다, 인도의 직원을 고용하는 샌프란시스코 기반 회사인 Sama였습니다. Sama는 스스로를 "윤리적 AI" 회사로 홍보하며 50,000명 이상의 사람들을 빈곤에서 벗어나는 데 도움을 주었다고 주장합니다.

OpenAI를 대신하여 Sama가 고용한 데이터 라벨러는 연공서열과 성과에 따라 시간당 약 1.32~2달러의 급여를 받았습니다. 이 이야기를 위해 TIME은 직원 급여명세서를 포함하여 Sama 및 OpenAI 내부 문서 수백 페이지를 검토하고 프로젝트에 참여한 Sama 직원 4명을 인터뷰했습니다. 모든 직원은 생계를 염려하여 익명을 조건으로 말했습니다.

ChatGPT를 가능하게 만든 노동자들의 이야기는 AI 산업에서 잘 알려지지 않은 부분의 상황을 엿볼 수 있게 해 주지만, 그럼에도 불구하고 AI 시스템을 대중이 소비할 수 있도록 안전하게 만들기 위한 노력에 필수적인 역할을 합니다. OpenAI가 속한 AI 조직 연합인 AI 파트너십(Partnership on AI)은 "이러한 데이터 강화 전문가가 수행하는 기본 역할에도 불구하고 점점 더 많은 연구에서 이러한 근로자가 직면하고 있는 불안정한 근무 조건을 밝혀내고 있습니다."라고 말합니다. "이것은 기술의 효율성 향상을 축하하면서 이 대규모 노동력에 대한 AI의 의존성을 숨기려는 노력의 결과일 수 있습니다. 눈에 띄지 않는 것도 마음에서 벗어납니다." (OpenAI는 협력하고 있는 아웃소싱 업체의 이름을 공개하지 않으며 OpenAI가 이 프로젝트에서 Sama 외에 다른 데이터 라벨링 회사와 협력했는지도 확실하지 않습니다.)

공유하다