확실히 지금은 그렇게 느껴집니다. 지난 주 정도 동안 리서치 회사 OpenAI가 개발한 최신 AI 모델인 ChatGPT와의 대화 스크린샷이 소셜 미디어에서 입소문을 탔습니다. 사람들은 온라인에서 무료로 사용할 수 있는 이 도구를 사용하여 농담을 하고, TV 에피소드를 쓰고, 음악을 작곡하고, 심지어 컴퓨터 코드를 디버깅하기도 했습니다. 이제 백만 명이 넘는 사람들이 AI를 가지고 놀았고 항상 진실을 말하거나 말이 되지는 않지만 여전히 꽤 좋은 작가이자 훨씬 더 자신감 있는 개소리꾼입니다. OpenAI의 예술 생성 소프트웨어인 DALL-E와 기계 학습의 도움으로 디지털 초상화를 제작할 수 있는 논란이 많은 플랫폼인 Lensa AI의 최근 업데이트와 함께 GPT는 인공 지능이 인간의 능력에 필적하기 시작했음을 극명하게 일깨워줍니다. , 적어도 어떤 것들은.
Mollick은 Recode에 "상황이 매우 극적으로 변했다고 생각합니다."라고 말했습니다. "그리고 사람들이 알아차리는 것은 시간 문제일 뿐이라고 생각합니다."
확신이 서지 않으면 여기에서 직접 시도해 볼 수 있습니다. 이 시스템은 온라인 챗봇처럼 작동하며 AI가 해결하기를 원하는 질문이나 프롬프트를 간단히 입력하고 제출할 수 있습니다.
GPT는 어떻게 작동합니까? 이 기술의 핵심은 처리한 이전 텍스트를 기반으로 무엇을 작성해야 하는지 기본적으로 추측하는 예측 시스템인 언어 모델이라고 하는 인공 지능 유형을 기반으로 합니다. GPT는 Reid Hoffman과 Peter Thiel을 비롯한 몇몇 저명한 기술 억만장자의 초기 자금을 포함하여 수십억 달러와 함께 인터넷의 방대한 데이터 공급에서 비롯된 매우 많은 양의 데이터로 AI를 교육하여 구축되었습니다. . OpenAI에서 게시한 블로그 게시물에 설명된 것처럼 ChatGPT는 앞뒤로 주고받는 인간 대화의 예에 대해서도 교육을 받았는데, 이는 대화가 훨씬 더 인간적인 것처럼 들리도록 하는 데 도움이 됩니다.
OpenAI는 기술을 상용화하려고 노력하고 있지만 이번 릴리스에서는 대중이 테스트할 수 있도록 허용해야 합니다. 이 회사는 2년 전 시를 만들고, 역할극을 하고, 몇 가지 질문에 답할 수 있는 기술의 반복인 GPT-3를 출시하면서 헤드라인을 장식했습니다. 이 기술의 최신 버전은 GPT-3.5이며, 해당 챗봇인 ChatGPT는 이전 버전보다 텍스트 생성이 훨씬 뛰어납니다. 또한 "Frog가 모기지 담보 증권에 투자하는 Frog and Toad 단편 소설을 작성하십시오."와 같은 지침을 잘 따릅니다. (이야기는 Frog의 조언에 따라 모기지 담보 증권에 투자하는 Toad로 끝납니다. "때로는 약간의 위험을 감수하면 결국 성과를 거둘 수 있습니다.")
이 기술에는 확실히 결함이 있습니다. 이 시스템은 이론적으로 일부 도덕적 경계선을 넘지 않도록 설계되었지만(히틀러가 나빴다는 것은 단호합니다) AI를 속여 모든 종류의 사악하고 사악한 활동에 참여하는 방법에 대한 조언을 공유하도록 하는 것은 어렵지 않습니다. 특히 챗봇에게 말하면 더욱 그렇습니다. 소설을 쓴다는 것입니다. 다른 AI 모델과 마찬가지로 이 시스템은 편향되고 공격적인 말을 할 수도 있습니다. 제 동료인 Sigal Samuel이 설명했듯이, 이전 버전의 GPT는 극도로 이슬람 혐오적인 콘텐츠를 생성했으며 중국의 위구르 무슬림 처우에 대해 상당히 우려되는 논점도 생성했습니다.
GPT의 인상적인 기능과 한계는 이 기술이 Google의 스마트 작성 제안 버전처럼 작동하여 이전에 읽고 처리한 내용을 기반으로 아이디어를 생성한다는 사실을 반영합니다. 이러한 이유로 AI는 글을 쓰는 주제에 대해 특별히 깊은 이해를 나타내지 않으면서도 매우 자신감 있게 들릴 수 있습니다. GPT가 셰익스피어 연극이나 미토콘드리아의 중요성과 같이 일반적으로 논의되는 주제에 대해 글을 쓰는 것이 더 쉬운 이유이기도 합니다.
Carnegie Mellon의 컴퓨터 과학 교수인 Vincent Conitzer는 "이전에 본 모든 것을 고려할 때 가능하다고 생각되는 텍스트를 생성하려고 합니다."라고 설명합니다. "때때로 약간 일반적으로 들릴 수도 있지만 매우 명확하게 작성됩니다. 사실상 사람들이 말하는 종류의 것을 배웠기 때문에 특정 주제에 대해 자주 제기된 요점을 다시 설명할 것입니다."
따라서 지금은 모든 것을 아는 봇을 다루지 않습니다. AI가 제공한 답변은 최근 코딩 피드백 플랫폼 StackOverflow에서 부정확할 가능성이 매우 높기 때문에 금지되었습니다. 챗봇은 또한 수수께끼에 쉽게 걸려 넘어집니다(대답하려는 시도가 매우 우스꽝스럽긴 하지만). 전반적으로 이 시스템은 물건을 만드는 데 완벽하게 편안하며 이는 인간의 정밀한 조사에는 분명히 의미가 없습니다. 이러한 제한은 AI가 일자리를 빼앗거나 결국 인간에게 안전 위협을 가할 수 있다고 걱정하는 사람들에게 위안이 될 수 있습니다.
그러나 AI는 점점 더 좋아지고 있으며 현재 버전의 GPT도 이미 특정 작업을 매우 잘 수행할 수 있습니다. Mollick의 과제를 고려하십시오. 시스템이 확실히 A를 받을 만큼 좋지는 않았지만 여전히 꽤 잘 해냈습니다. 한 트위터 사용자는 모의 SAT 시험에서 ChatGPT가 응시자의 약 52%를 기록했다고 말했습니다. UNC의 컴퓨터 공학 교수인 크리스 조던(Kris Jordan)은 Recode에 GPT에 기말 시험을 배정했을 때 챗봇이 만점을 받았는데, 이는 인간이 코스를 수강하는 평균 점수보다 훨씬 낫다는 것입니다. 그리고 예, ChatGPT가 시작되기 전에도 학생들은 이전 버전의 GPT를 포함하여 모든 종류의 인공 지능을 사용하여 과제를 완료했습니다. 그리고 그들은 아마도 부정 행위로 표시되지 않을 것입니다. (표절 방지 소프트웨어 제조업체인 Turnitin은 여러 의견 요청에 응답하지 않았습니다.)
지금 당장은 얼마나 많은 진취적인 학생들이 GPT를 사용하기 시작할지, 교사와 교수가 그들을 잡을 방법을 알아낼지는 분명하지 않습니다. 그럼에도 불구하고 이러한 형태의 AI는 이미 인간이 어떤 종류의 일을 계속하기를 원하는지, 대신 기술이 파악하기를 원하는 것이 무엇인지에 대해 씨름하도록 강요하고 있습니다.
Deakin University에서 시험 부정 행위를 연구하는 전문가인 Phillip Dawson은 Recode에 "8학년 때 수학 선생님이 계산기에 의존하지 말라고 말씀하셨습니다. "우리 모두는 그것이 어떻게 되었는지 알고 있습니다.
이 이야기는 Recode 뉴스레터에 처음 게재되었습니다.여기에서 가입다음을 놓치지 않도록!




