GPT는 여기에 있습니다. 우리를 어디로 데려갈까요?

게시 됨: 2023-02-03

GPT가 우리 앞에 펼쳐지고 있으며 우리는 비트를 놓치지 않고 있습니다. 이 새로운 기술의 잠재력과 한계를 탐구하면서 그것이 과대 광고에 부응할 수 있을까요?

ChatGPT는 11월 말에 출시된 이후로 인간과 같은 반응을 생성하는 능력으로 전 세계 사람들의 마음을 사로잡았습니다. 그러나 모든 신기술과 마찬가지로 과대 광고와 현실 사이에는 간극이 있는 경우가 많습니다. 특히 생성 AI는 매우 자연스러운 과장 기계입니다.

우리는 회의론을 이해합니다. 대규모 언어 모델은 잘못된 경우에도 그럴듯하게 보이는 데 탁월합니다. 그러나 사실을 말하자면 우리는 매우 낙관적입니다. 지난 8주 동안 우리는 AI 기반 기능을 구축하여 160명의 베타 고객에게 제공했으며 피드백은 압도적으로 긍정적이었습니다. 그래서 이번 주 초에 우리의 기계 학습 책임자인 Fergal Reid와 저는 우리가 구축한 것과 배운 것에 대한 통찰력을 공유하기 위해 팟캐스트에서 특별 에피소드를 발표했습니다.

이번에는 Intercom을 넘어 고객 서비스를 넘어섭니다. 오늘 에피소드에서는 회의론부터 비즈니스 커뮤니케이션에서의 GPT 역할, 창의적인 작업 중단부터 사용자 인터페이스의 미래에 이르기까지 GPT의 모든 것을 자세히 살펴봅니다.

다음은 몇 가지 주요 사항입니다.

  • 개선되는 것은 기술만이 아닙니다. 우리는 무엇을 구축해야 하는지, 이를 사용자 정의하고 통합하는 방법을 더 잘 이해하고 있으며 이러한 모든 역학이 업계를 발전시키고 있습니다.
  • 아마도 인간-기계 인터페이스의 미래는 사용자의 의도를 이해하고 상호 작용을 중재하는 개인화된 AI 기반 봇에 의해 촉진될 것입니다.
  • 이러한 모델은 많은 새로운 기능을 잠금 해제하고 누군가를 한 눈에 속일 수 있지만 여전히 Turing 테스트를 통과하는 데 필요한 상식 추론이 부족합니다.
  • GPT는 고객 서비스 산업을 혼란에 빠뜨릴 수 있지만 자동화가 상담원의 생산성을 높인다면 궁극적으로 비즈니스에 대한 가치를 높이는 기능을 활용할 수 있습니다.

Apple Podcasts, Spotify, YouTube에서 Intercom on Product를 팔로우하거나 선택한 플레이어에서 RSS 피드를 가져와 하이라이트를 놓치지 마십시오. 다음은 에피소드의 약간 편집된 대본입니다.


과대 광고를 넘어

Des Traynor: 안녕하세요. Intercom 팟캐스트에 오신 것을 환영합니다. 저는 다시 Fergal과 합류하여 GPT에 관한 모든 것에 대해 이야기할 것입니다. Fergal, ChatGPT가 출시된 지 8주가 지났습니다. 이미 사람들은 그것에 대항하여 유용한 제품을 만들고 있고 이미 우리는 이것이 장난감이고, 미성숙하고, 아무 것도 준비되지 않았다고 말하는 회의론자들의 물결을 겪었습니다. 이것은 고전적인 신기술 반응일 뿐입니다. 당신의 머리는 어디에 있습니까? 회의론이 근거가 있습니까? 정말로 중요한 지각 절벽을 넘은 적이 있습니까?

Fergal Reid: 예, 회의론에는 정당성이 있다고 생각합니다. 이것들은 거의 자연적인 과대 광고 기계입니다. 그것을 보고 좋아 보이는 일을 하는 것을 보는 것은 매우 쉽습니다. 당신이 그것을 정말로 파헤치지 않는 한, 그것은 멋져 보입니다. 그런 다음 파헤쳐 보면 "아, 틀렸어. 속은 것 같아." 이 기계는 그럴듯한 것을 생성하도록 설계되었으며 그럴듯하지만 잘못된 것이 문제가 되면 매우 실망스러울 수 있습니다. 그래서 저는 많은 사람들이 이 기술에 대해 가지고 오는 회의론의 기본 입장을 이해합니다.

"오늘날 인터넷에 있는 ChatGPT는 장난감에 불과할 수 있지만 그렇다고 해서 우리가 기본 기술을 사용하여 믿을 수 없을 정도로 가치 있는 비즈니스 기능을 구축할 수 없다는 의미는 아닙니다."

그러나 우리는 항상 제너레이티브 AI에 대해 매우 낙관적이었습니다. 마지막으로 이야기한 이후 몇 가지 기능을 구축하여 베타에 제공했습니다. 베타에는 이러한 기능을 사용하는 160대 고객이 있습니다. 요약, 일부 컴포저의 기능은 사람들을 더 빠르게 만들고 시도하기 위해 더 실험적입니다. 그리고 우리는 프로토타입 형태로 아직 거기에 있지 않은 다른 기능의 물결을 가지고 있습니다. 즉, 고액의 가치가 있는 것입니다. 그래서 우리는 회의론을 이해하고 낙관적이었습니다. 이제 우리는 데이터를 얻었습니다. 실제 고객 사용, 실제 고객이 하고 싶은 특정 작업이 있고 매일 하루 종일 하는 일이라고 말하는 실제 고객입니다. 저것. 그리고 그것은 나에게 회의론의 입장이 약간 불안정하게 보이기 시작합니다.

Des: 사람들이 실제로 일상 업무의 일부를 수행하기 위해 물건을 사용하고 있다는 사실입니다.

퍼갈: 네. 그것이 이것의 궁극적인 중재자입니다. 사람들이 단지 장난감이 아니라 실제로 사용하고 있을 때 의심하기는 매우 어렵습니다. 거기에는 논리가 있습니다. 우리는 The Atlantic 과 같은 곳에서 사람들이 "이봐, 이건 진짜 가치 있는 제품이라기보다 장난감에 가깝다"고 말하는 기사를 보았습니다. 그리고 오늘날 인터넷에 있는 ChatGPT는 장난감에 불과할 수 있지만 그렇다고 해서 우리가 기본 기술을 사용하여 믿을 수 없을 정도로 가치 있는 비즈니스 기능을 구축할 수 없다는 의미는 아닙니다.

우리 팀은 아마도 지난 몇 달 동안 "와, 이것이 진정한 가치를 제공하고 있습니다."라고 말하는 여러 팀 중 하나였을 것입니다. 실제로 수백 명의 고객에게 이 제품을 제공하고 피드백을 받는 개발 주기가 있었습니다. 그리고 그들은 우리에게 “예, 이것은 정말 시간을 절약하고 있습니다. 이것은 내 작업을 더 빠르게 만들고 있습니다.” 예, 회의론을 유지하기가 더 어려워집니다. 그것은 하나의 주장입니다. 나는 당신이 다른 입장에서 회의론을 공격할 수도 있다고 생각합니다. 우리는 이전 세대가 틈을 건너지 않았고 변혁적이지 않았기 때문에 이 기술에 대해 회의적인 많은 트윗 스레드와 기사를 보았습니다. 그리고 그들은 새로운 기술이 항상 과장되기 때문에 회의적입니다. 그러나 그것들은 좋은 주장이 아닙니다. 그것들은 한동안 옳았다가 크게 틀리게 되는 주장입니다. 지나치게 낙관적으로 여기에서 실패할 수 있지만 다음과 같이 실패할 수도 있습니다.

Des: 공허하고 비관적입니다.

퍼갈: 맞아요. 공허하고 비관적입니다.

"서로 피드백하고 확대할 역학이 동시에 발생합니다."

Des: 당신이 본 유사점은 그들이 들어본 모든 새로운 스타트업 아이디어를 쓰레기로 만드는 사람들입니다. 문제는 스타트업의 90%가 성공하지 못한다는 것입니다. 그래서 90%의 시간 동안 당신은 눈에 띄고 정말 똑똑해 보입니다. 그런 다음 1조 달러 규모의 사업을 쓰레기로 만들고 모두가 "알았어, 알고 보니… . 그리고 당신이 실제로 각 의견 뒤에 무게를 둘 때 그것에 약간의 진실이 있습니다. 당신이 틀렸을 때 당신이 틀렸다는 정도는 기술에 회의적이라는 것만으로 당신이 약간 옳았다는 정도를 밀어냅니다.

퍼갈: 네, 100%입니다. 보세요, 저는 AI와 그 가치를 믿습니다. 진정한 가치에 대한 충분한 증거가 있다고 생각합니다. 지난 10년 동안 우리는 기계 학습과 AI의 추세가 일반적으로 증가하고 증가하는 것을 목격하고 있습니다. 새로운 기능이 있습니다. 나는 우리 팀이 GPT-3.5와 6개월 전에는 없었던 다른 대규모 언어 모델에 대해 적어도 일부 기능이 잠금 해제되었다는 충분한 증거를 가지고 있다고 생각합니다. 오버행이 있다고 생각합니다. 아직 만들어지지 않은 제품보다 지금 만들 수 있는 제품이 더 많습니다. 예, 우리는 낙관적이며 우리가 베타 버전을 제공한 고객이 "예, 작동합니다. 훌륭합니다."라고 말하는 것을 보기 시작했습니다.

우리는 그것의 마지막 부분을 아직 건너지 못했습니다. 우리는 이것이 고객이 시간의 99%를 사용하는 작업에 대한 핵심 가치 측면에서 혁신적이라는 것을 알고 있습니다. 그래서 받은 편지함에서 시간을 절약하기 위해 요약 기능 및 기타 기능을 제공합니다. 그러나 우리가 아직 구축하지 않고 내부적으로 작업하고 있지만 시장에서 본 적이 없는 중요한 것들이 여기에 올 것입니다. 그래서 우리는 이것의 진정한 흥분이 여전히 다가오고 있다고 생각합니다.

Des: 댓글에서 누군가가 저를 수정할 것이라고 확신하는 일부 변환 계층 구조가 있지만 특정 워크플로우를 변환하기 위해 이미 라이브 기능을 넣었고 변환을 통해 이 작업을 수행하는 데 드는 비용을 5%로 줄입니다. 한때는 어땠는지. 예를 들어 요약의 경우. 그런 다음 매우 일반적인 워크플로를 변환할 수 있습니다. 그런 다음 업무를 변화시키고 조직을 변화시킬 수 있으며 맨 위에서는 비즈니스를 변화시킬 수 있습니다. 그러나 고객 서비스 세계의 불가피한 변화를 통해 우리가 짜고 있는 많은 가치를 제공할 수 있는 사용 사례를 점점 더 많이 식별함에 따라 매우 분명합니다.

"우리는 고객에게 내부적으로 갔고 우리가 지금까지 받은 것 중 가장 큰 응답 중 하나였기 때문에 우리가 원하는 것보다 훨씬 일찍 베타 모집을 마감해야 했습니다."

퍼갈: 물론이죠. 이것이 동시에 변화하는 많은 방법이 있습니다. 피드백을 주고 서로를 확대할 수 있는 많은 역학이 동시에 발생합니다. 첫 번째는 분명합니다. 사용 가능한 기술이 점점 좋아지고 있습니다. 그것은 멈추지 않습니다. OpenAI 및 Anthropic과 같은 다른 플레이어는 항상 새로운 모델을 구축하고 있으며 흥미진진합니다. 그것은 멈추지 않습니다. 그래서 그것은 하나의 역학입니다. 그리고 또 다른 역학이 있는데, 그것은 우리가 그것들을 중심으로 제품을 만드는 데 점점 더 능숙해지고 있다는 것입니다. 우리는 이러한 모델을 선택하고 그들이 잘하는 유형을 파악하는 데 점점 더 능숙해지고 있습니다. 그리고 또 다른 역학이 있는데, 그것은 우리가 그것들을 더 잘 맞춤화하고, 올바른 프롬프트를 구축하고, 그것들을 기존 시스템에 통합하고 있다는 것입니다. 그리고 고객의 기대치는 점점 더 높아지고 있습니다.

우리는 ChatGPT 이후로 고객들로부터 엄청난 관심을 받고 있다는 것을 알게 되었습니다. 그들은 약속을 볼 수 있고 여기에 무언가가 있다고 믿을 수 있습니다. 베타를 통해 우리는 고객에게 내부적으로 갔고 우리가 지금까지 받은 응답 중 가장 큰 응답 중 하나였기 때문에 우리가 원하는 것보다 훨씬 일찍 베타 모집을 마감해야 했습니다. 사람들은 그것에 참여하기를 원했습니다. 제 생각에는 이 모든 것들이 함께 모여 그들 중 어느 것보다 훨씬 더 확대될 것입니다.

Des: 그것은 당신이 그것을 분해 하는 방법에 흥미 롭습니다. 기술이 향상되고 기업의 역량이 향상되고 있으며 현지 사례에 채택하는 것입니다. 그리고 그 기술을 사용하여 새로운 제품과 기회에 대해 생각하거나 개념화하는 기업의 능력이 향상되고 있습니다. 기술에 대한 고객의 기대치와 동일합니다. 한 가지 간단한 예로 텍스트 필드 내에서 텍스트를 확장할 수 있을 것으로 기대하는 사람들이 1년밖에 남지 않았을 것입니다. 당신은 이런 것들이 모든 곳에서 자라는 것을 보고 있습니다.

퍼갈: 1년만이라도. 분명히 우리 중 많은 사람들이 이러한 기능을 Word 등에 도입하는 것에 대한 Microsoft의 발표를 보았습니다. 대규모 주류 사무용 생산성 도구가 이 작업을 수행한다면 상황은 빠르게 변할 것입니다. 정말 빠를 수 있습니다.

AI 비서의 부상

Des: 여기에 제가 비난할 다른 유형의 회의론이 있습니다. 어쨌든 저에게 약간 공감하는 것입니다. Kevin Cannon은 재미있는 트윗을 통해 다음과 같이 말했습니다. , blah… 그리고 수신자는 요약 버튼을 클릭하여 그 사람이 '직업을 원합니다. 여기 내 이력서가 있습니다.'라고 말한 것을 확인했습니다. 어떤 의미에서, 당신은 그것들을 보고, 도대체 이 모든 것의 요점이 뭐야? 공식적인 언어와 전문적인 작문, 비즈니스 영어가 우리 모두가 의사소통하는 연극 방식에 무의미한 도관이 되었습니까? 직업." "당신은 직업을 가질 수 없습니다."

퍼갈: 네. 어려운 질문. 심각한 추측입니다. 몇 가지 의견을 드리겠습니다. 아마 어떤 맥락이 있겠죠? 법적 문서를 가정 해 봅시다. 법무팀의 누군가에게 “이봐, 계약이 필요해. X, Y, Z를 해야 합니다.” 그 요청은 10페이지 분량의 법적 자료로 바뀔 것입니다. 받는 사람은 "오, 그렇게 하겠다고 말한 세 가지 일을 합니까?"라고 물을 것입니다. 그리고 그들의 법무팀은 "예, 그렇습니다."라고 말할 것입니다. 이것은 큰 확장과 압축이 있는 극단의 한쪽 끝이지만 일부 이상한 경우에는 2페이지의 13번 조항이 법정에 나타날 수 있습니다. 그래서 분명히 중요합니다. 우리는 그것을 제거할 수 없습니다. 우리는 그 네 가지 중요 항목만 가질 수 없습니다. 우리는 그 모든 것이 필요합니다. 글을 쓸 때는 중요하다고 생각하지 않을 수도 있지만 나중에는 중요해질 수 있습니다. 그것은 마치 "아니요, 거기에 있어야 할 것 같은 느낌이 듭니다. "와 같은 하나의 극단처럼 느껴집니다. 모든 극단적인 경우를 처리해야 합니다.

그리고 다른 극단은 아마도 방어자와 수신자가 이러한 세부 사항에 신경 쓰지 않는 상황일 것입니다. 둘 다 그러한 세부 사항에 대해 전혀 신경 쓰지 않을 것이며 “이것은 비즈니스 편지를 쓰는 방법입니다. 큰 회사에 편지를 쓰고 있어요. 비즈니스 편지를 쓰는 게 낫겠어요.”

Des: 같은 방식으로 이메일 대화가 SMS, iMessage 또는 WhatsApp로 옮겨졌을 때와 유사하다고 생각합니다. 당신이 더 이상 말하지 않는 모든 똥을 생각하십시오. "이것이 당신을 잘 찾길 바랍니다"또는 무엇이든. 그 모든 것이 사라졌습니다.

Fergal: Twitter의 제약, 형식, 매체는 간결해질 수 있는 권한을 부여합니다. 나는 그것이 진정한 역학이라고 생각합니다. 우리가 소통하는 방식과 헬프 센터 문서를 작성하는 방식이 최적의 문서 작성 방법이 아닐 수도 있습니다. 아마도 우리는 더 간단해야 할 것입니다. 기계 학습 팀에는 이것에 대해 생각하는 또 다른 방법이 있습니다. 세계의 미래는 에이전트에 의해 중재될 것입니다. 그리고 옛날 옛적에 이것은 모두에게 분명했습니다. 귀하의 웹 브라우저에는 이를 문자열로 묶는 사용자 에이전트가 있습니다. 그리고 내가 말했듯이, 당신을 위해 이 모든 링크와 물건이 있는 이상한 인터넷을 탐색하고 탐색하는 것은 당신의 에이전트입니다. 그것은 당신을 위해 일을 할 것이고, 돌아와서 당신에게 일을 말할 것입니다. 그런 다음 모든 것이 중앙 집중화되고 이제 검색 엔진 등이 있습니다.

“우리가 본 것이 DALL·E 2 이미지 세대뿐이었다면 한 가지 일 것입니다. 하지만 아닙니다. 우리는 오디오 합성, 이미지 합성, 텍스트 이해, 텍스트 합성 및 텍스트 압축에서 변화를 보고 있습니다.”

기술 미래주의와 공상 과학 소설 등에 오래된 생각이 있습니다. 아마도 당신과 당신의 의도, 당신이 원하는 것을 이해하고 당신의 주의를 끌 만한 것과 그렇지 않은 것을 알아낼 만큼 충분히 똑똑한 에이전트가 있을 것입니다. 에게. 그래서 아마도 미래에는 이것이 더 그렇게 될 것입니다. 특정 세부 사항을 알고 싶은 경우 소프트웨어가 똑똑하여 요약된 버전에 넣을 수 있습니다. 그러나 그것은 당신이 그 세부 사항을 알고 싶지 않다는 것을 알고 그것을 생략할 만큼 충분히 똑똑합니다.

아마도 우리는 사용자 인터페이스가 변하는 미래에 살게 될 것입니다. 특정 비즈니스나 작업에 대한 사용자 인터페이스가 오늘날처럼 해당 비즈니스나 작업에 의해 실제로 제어되지 않는 곳입니다. 대신 나에게 맞춤화됩니다. 아주 멋진 것처럼 들리지만 빨리 일어날 것이라고 생각합니다. 이러한 언어 모델은 매우 강력하고 코드를 작성하는 데 사용되기 시작했으며 여기에서 조치를 취하는 것은 매우 짧은 홉입니다. 우리는 사람들이 영어 문장을 받아들이고 웹사이트를 탐색할 수 있을 만큼 충분히 웹사이트를 이해하는 모델에 대해 작업하는 몇 가지 프로토타입을 보았습니다. 그리고 모든 사람이 웹사이트와 상호작용하는 미래를 향해 가고 있습니까? 더 이상 웹 사이트가 필요하십니까?

Des: 이것이 새로운 SEO입니까? GPT가 나를 이해할 수 있는지 확인하시겠습니까?

퍼갈: 네. 아마도 웹사이트는 공개적으로 노출되는 API처럼 보이는 것으로 바뀔 수 있습니다. UI는 에이전트에 의해 형식이 지정되기 때문에 UI와 형식이 있는 것입니다.

Des: 우리는 모두 Siri와 대화하고 있습니다.

“아마도 봇이 있는 미래는 이런 모습일 것입니다. 인터페이스를 처리하는 맞춤형 봇이 모두 있으므로 중간 계층에 대해 크게 걱정할 필요가 없습니다.”

Fergal: 네, 저는 Google과 Apple이 이 미래를 볼 수 있다고 생각합니다. 우리는 일정을 알지 못하지만 다시 한 번 말씀드리지만 제가 항상 사용하는 사고 도구는 다음과 같습니다. 만약 당신을 이해하고 당신과 함께 일했던 아주 똑똑한 사람이 있다면 어떨까요? 개인 비서일 수도 있고, 당신이 그들과 상호 작용하고 있다면 어떨까요? 휴가를 예약하고 싶습니까? 그들이 당신에게 그것에 대해 무엇을 물어보겠습니까? 그리고 booking.com 등에서 볼 수 있는 항목의 절반에서 그들은 당신에게 그것을 묻지 않을 것입니다. 그들은 당신을 위해 휴가를 예약하고 아마도 명확한 질문으로 돌아올 것입니다. 가서 아파트에 머물지만 거기에는 공간이 없습니다. 호텔이 될까요?” 그러나 그것은 적응 가능한 사용자 인터페이스입니다. 다시 말하지만 저는 ChatGPT와 방금 배송된 것에 너무 집중하지 않습니다. 당신은 1년 또는 2년을 밖으로 가지고 갑니다. 너무 빨리 움직이고 있습니다. 현재 제한 사항 때문에 회의적이라면 다음과 같이 하십시오.

Des: 귀하의 회의론 마크를 놓칠 것입니다.

퍼갈: 맞아요. 변압기는 매우 강력하며 사람들이 사용하는 변압기 아키텍처는 매우 강력합니다. 우리는 여기에서 여러 양식이 개선되는 것을 보았습니다. 우리가 본 것이 DALL·E 2 이미지 세대뿐이었다면 한 가지 일 것입니다. 하지만 아니오, 우리는 오디오 합성, 이미지 합성, 텍스트 이해, 텍스트 합성, 텍스트 압축에서 변형을 보고 있습니다. 우리는 많은 병렬 발전을 보고 있습니다. 코드를 작성할 수 있습니다. 아마 곧 웹사이트를 운영할 수 있을 것입니다. 봇이 있는 미래는 아마 이런 모습일 것입니다. 우리 모두는 인터페이스를 처리하는 맞춤형 봇을 가지고 있으며 중간 계층에 대해 크게 걱정할 필요가 없습니다.

Des: 제가 트위터에서 본 슈퍼 프로토타입 장면 중 하나는 봇이 자신의 목소리로 말하고, 전화를 걸고 은행 전화 트리를 탐색하고, 효과적으로 에이전트에게 연결하고, 모든 외환 거래 환불 등. 물어보기만 하면 그들이 해 주는 그런 종류의 표준입니다. 끝까지 달려왔습니다. 그리고 문자 그대로 그들은 "가라"고만 말하고 떠났습니다. 그것은 명백히 매우 고안된 것이었고 아마도 매우 폐쇄적일 수도 있었지만 여전히 자동으로 실행되는 매우 실제적인 사용 사례였습니다.

Fergal: 정말 흥미로운 분야라고 생각합니다. 우리는 고객 서비스가 어떻게 변할 것인지에 대해 많은 이야기를 나누며, ChatGPT와 같은 봇이 비즈니스에 맞게 조정되고 질문에 답하는 데 정말 뛰어나며 고객 서비스 문제 비용이 감소할 때 우리의 머리가 항상 어디로 가는지에 대해 이야기합니다. 그러나 또 다른 측면이 있습니다. 사용자가 고객 서비스 상호작용을 처리할 수 있고 포기하거나 지치지 않는 봇을 갖게 되면 고객 서비스는 어떻게 변할까요? 그리고 거기에는 잠재적으로 큰 변화가 있습니다.

Des: 새로운 B2B는 기본적으로 봇 대 봇이 될 것입니다.

퍼갈: 아마도. 사용자가 그런 종류의 기술을 갖기까지는 시간이 좀 걸릴 수 있지만 고려해야 할 흥미로운 사항입니다.

진정성 수수께끼

Des: 이 양면적인 창조의 세계, 그리고 궁극적으로 속임수로 보일 수 있는 것(그림처럼 보이지만 그림이 아니라 생성된 것)에 대해 일반적으로 어떻게 생각하십니까? 대 감지, 사람들이 말할 수 있는 아이디어 , “이봐, 내가 그 코드를 정말 손으로 썼지, 그건 생성된 코드가 아니야.” 인류가 이 세상을 항해하는 것이 얼마나 중요합니까? 서부 로봇 공장인 웨스트월드에는 한 남자가 원하는 유명한 장면이 있습니다.

Fergal: 그것은 오래된 것의 리메이크입니다.

데스: 아, 그래요? 나에게 뉴스. 전작 리메이크인줄 몰랐네요. 그런데 웨스트월드에서 한 남자가 여자와 부딪혀 대화를 나누고 나서 마지막에 "물어봐야지, 너 진짜야? "라고 말하는 장면이 있다. 그녀의 대답은 "물어봐야 한다면 그게 왜 중요한가요?"입니다. 그리고 거기에 무언가가 있다고 생각합니다. 우리의 탐지 능력을 능가하는 것이 진짜의 정의로 보여질까요? 진정성은 더 이상 중요하지 않습니까? 은행 업무의 예에서 사람이 어떻게 "이봐, Fergal, 이게 너야, 아니면 네가 훈련시킨 봇이야?"라고 말할 것인가? 특히 그 질문에 대답하는 방법을 훈련했다면.

Fergal: 몇 가지 중요한 질문이 있습니다. 거기에는 내가 놓쳤을 가능성이 있는 적어도 5개의 질문이 있습니다. Turing 테스트에 대해 이야기할 수 있습니다. 이 테스트는 컴퓨터가 적절하게 지능화되었을 때 우리가 어떻게 말할 수 있는지에 대한 매우 선견지명이 있는 논문이며, 한 테스트는 기능 장애 테스트였습니다. 텍스트 인터페이스 등을 통해 지능적이지 않다고 말할 수 있습니다. 그리고 그것을 통과하면 기능적으로 지능적이라는 것을 받아들여야 합니다. 그것은 많이 잘못 표현되었지만 그의 논문은 "그 지점에 도달하면 정말 흥미로운 일을 하고 있는 것입니다."에 가깝습니다. 이것이 기능적으로 사물에 접근하는 한 가지 방법입니다.

"많은 일이 벌어지고 있는 이야기를 한 다음 그것에 대해 일종의 복잡하고 결과적인 질문을 하면 여전히 넘어질 것입니다."

Des: 그리고 우리는 과거, 내가 말할 것 이다. 그 당시.

Fergal: 튜링 테스트를 통과한 무언가에 대한 헤드라인은 항상 있습니다. 원래 공식은 숙련된 심문관 같은 것이라고 생각합니다. 우리는 아직 그 시점에 있지 않습니다. 누군가가 올바른 질문을 하도록 훈련을 받았다면 이런 것들은 금방 무너질 것입니다. 그것은 인간이 하는 깊은 세계 모델을 가지고 있지 않습니다.

데스: 맞아요. 자기 참조 질문을 하는 트릭을 어떻게 하시겠습니까? 당신은 누군가에게 언어적으로 그것을 여행하도록 요구할 것입니까?

Fergal: 기술이 점점 좋아지고 있습니다. 그러나 복잡한 도메인을 설정하는 것과 비슷합니다. 많은 일이 벌어지고 있는 이야기를 한 다음 그것에 대해 일종의 복잡하고 결과적인 질문을 하면 여전히 넘어질 것입니다. 아이가 하지 않을 방식으로 걸려 넘어질 것입니다. 하지만 이것에 대해 생각하는 올바른 방법은 당신이 외계인 지능을 다루고 있다고 생각합니다. 당신은 그것을 지능이라고 부르고 싶지만, 그것은 다르게 형성될 것입니다. 따라서 7살짜리 아이가 쓸 수 없는 많은 것들이 될 것입니다. 저는 컴퓨터 프로그램을 작성할 수 있지만 상식적인 추론이라고 부를 수 있는 것은 아직 거기에 없습니다. 즉, 철학적으로 이것은 이것이 살아 있고 물건을 감지하는지에 대해 이야기하는 것입니다. 그리고 대부분의 사람들이 사용하는 대부분의 정의에서 분명히 그렇지 않습니다. 그러나 그것은 AI 질문의 철학으로 향하는 것입니다.

원래 시점으로 돌아가서 이러한 시스템에 대한 CAPTCHA를 구축하려면 어떻게 해야 합니까? 어떻게 생겼나요? 예, 사람들은 워터마킹을 하고 해당 텍스트가 이러한 모델에 의해 생성되는지 감지하는 방법을 가지고 있지만 적절한 양의 노이즈를 주입하는 데 정말 능숙한 모델이 있다면 그것이 신뢰할 수 있을지 모르겠습니다.

이 분야의 모든 사람에게 경고하고 싶은 한 가지는 머신 러닝 시스템이 있다는 것입니다. "내 머신 러닝 시스템이 실생활에서 99% 이미지 감지 임계값에 도달할 만큼 충분한 품질을 갖도록 하려면 어떻게 해야 합니까?" 그것은 하나의 표준입니다. 그리고 완전히 다른 표준이 있습니다. 적의 입력과 비교하여 잘 작동하도록 기계 학습 시스템을 구축하려면 어떻게 해야 합니까? 그것은 완전히 다른 야구입니다.

"적어도 당분간은 큰 언어 모델을 가진 큰 플레이어가 당신이 그런 사악한 작업에 그것을 사용한다면 당신을 막으려 할 것입니다."

Des: 수비적인 디자인.

퍼갈: 수비적인 디자인. 적대적 입력을 어떻게 방어합니까? 그리고 일반적으로 그것은 정말 어렵습니다. "오, 사기를 감지하거나 복잡한 환경에서 내 시스템을 보호할 새로운 멋진 기계 학습 시스템이 있습니다."라고 말하면 매우 회의적일 것입니다. 사기 탐지 시스템이 있지만 머신 러닝 시스템을 공격하려는 사람과는 다릅니다.

봇과 대화할 때, 원하지 않는 대규모 언어 모델과 대화할 때 감지하는 이 모든 문제는 어려울 것이라고 생각합니다. 그리고 미래에 사용자를 가장한 봇에 의해 고객 서비스가 범람하는 상황에 처하게 된다면 대처하기가 까다로울 것입니다. 하지만 최소한 한동안은 큰 언어 모델을 가진 큰 플레이어가 당신이 그런 사악한 작업에 그것을 사용한다면 당신을 막으려 할 것이라고 생각합니다. 그리고 이러한 고품질 모델은 모든 종류의 소비자 모델 하드웨어 항목에서 호스트하고 실행하기 어렵기 때문에 약간의 제어가 있을 것입니다. 약간의 책임이있을 수 있습니다.

다가오는 혼란

Des: 조금만 확대하면 그럴듯하게 들리는 음악을 생성하는 데 그리 멀지 않은 것 같습니다. 로비 음악, 그런 것.

퍼갈: 네. 무작.

Des: Muzak, 정확히. 그리고 어느 정도는 일반적으로 공식화된 노래가 있습니다. 제 생각에는 65개의 1위 노래와 같은 것이 4개의 코드가 동일하거나 그와 비슷한 것, 또는 어쨌든 상위권에 있는 노래가 있다고 생각합니다. 그리고 분명히 Dan Brown의 소설은 모두 단순한 형식을 따릅니다. 그것이 나쁘다는 의미는 아니지만 공식적인 성격으로 어느 정도 표현된 모든 것이 복제될 수 있고 궁극적으로 $0 버전을 얻을 수 있을 때 사회가 어느 정도 변화합니까? The Da Vinci Code는 여전히 The Da Vinci Code이며, 어떤 일반적인 정의로도 꽤 좋은 책이지만 이제 $0 또는 5센트 또는 기타 가격으로 저렴한 지하실 버전을 얻을 수 있습니다. 그런 다음 모든 유형의 창의성에서 발생한다고 생각합니다. 다시 말하지만, 이것은 이러한 기술의 출력이 비슷할 것이라고 말하는 것이 아니라 잠재적으로 가격의 1%가 될 것입니다. 그런 종류의 미래에 세상이 어떻게 변한다고 생각하십니까?

“제본스의 역설입니다. 때로는 더 싼 것을 만든다는 것은 결국 더 많은 일을 하게 된다는 것을 의미합니다. 이러한 역학 관계는 정말 예측하기 어렵습니다.”

Fergal: 저는 다양한 방식으로 생각합니다. 과거의 비유를 볼 수 있습니다. 그림을 볼 수 있고, 사진이 들어오고, 갑자기 풍경 이미지를 담기가 쉬웠지만-

Des: 화가들이 그것을 좋아하지 않았죠?

Fergal: 역사를 잘 알지는 못하지만 일반적으로 혼란이 있을 때마다 화를 내는 일부 현직자가 있습니다.

Des: 라디오나 카세트테이프도 마찬가지였다고 생각합니다.

퍼갈: 네. 예전에는 모든 영화관에 사운드트랙을 연주할 피아니스트가 있었고, 그것은 사라졌습니다. 축음기와 피아노 조율사, 베틀과 러다이트… 그리고 임박한 중단에 직면한 다른 영역이 있다고 생각하며 무엇이 가치 있는지에 대한 힘든 대화가 있을 것입니다. 마찬가지로 고객 지원도 민감해야 합니다. 항상 더 나은 결과와 더 나쁜 결과가 있습니다. 사람들은 대규모 언어 모델이 코드 작성 능력을 향상시키는 것을 보고 "이봐, 프로그래머로서 내가 수년 동안 투자한 이 귀중한 기술은 더 이상 유용하지 않을 거야."라고 말할 수 있습니다.

"많은 자동화가 이루어진 세상에서 고객 지원 담당자가 줄어들까요, 아니면 그들이 비즈니스에 가져올 수 있는 가치가 확대되었기 때문에 더 많아질까요?"

이것에 대해 생각하는 다른 방법이 있습니다. AWS 측면에서 생각할 수 있습니다. 우리는 Intercom에서 Amazon을 많이 사용하며 AWS 없이 모든 작업을 수행해야 한다면 프로그래머의 시간이 훨씬 더 많이 소요될 것입니다. 결과적으로 더 적은 수의 프로그래머를 고용한다는 의미입니까? 글쎄, 그것은 아마도 우리가 기술을 가능하게 하는 기술 없이는 사업으로서 실현 가능하지 않다는 것을 의미할 것입니다. 그것은 Jevons 역설입니다. 때로는 더 싼 것을 만든다는 것은 결국 더 많은 일을 하게 된다는 것을 의미합니다. 이러한 역학 관계는 정말 예측하기 어렵습니다. 자동화가 많은 세상에서 고객 지원 담당자가 줄어들까요, 아니면 그들이 비즈니스에 가져올 수 있는 가치가 확대되었기 때문에 더 많아질까요?

Des: 우리가 모든 진짜 물건을 가져갈 때, 우리는 실제로 그것들이 가져다주는 가치를 보게 되고, 당신은 "나는 그것을 더 원해."

Fergal: 당신은 더 많은 것을 원합니다. 당신은 그 이상이 필요합니다. 갑자기 이런 생각이 듭니다. "와우, 담당자가 많다면 비즈니스 가치 측면에서 무엇을 얻을 수 있을까요?" 각각은 현재보다 10배 더 많은 일을 할 수 있습니다. 당신은 결코 모른다. 가끔 놓치는 부분인 것 같아요. 사람들은 항상 기술 혼란에 반응하고 항상 이렇게 말합니다. 가고 싶은 곳이라면 어디든지 제품 관리자가 될 수 있습니다.” 그리고 그것은 잠재적으로 한 가지 방법입니다. 그러나 또 다른 방법은 현재 하고 있는 일에서 훨씬 더 생산적이 되는 것만으로도 해야 할 일의 양을 변화시킬 수 있다는 것입니다.

Des: 또는 그것 때문에 더 많은 사업이 가능해집니다.

Fergal: 더 많은 사업이 가능해집니다. 그것이 가장 좋은 것입니다. 이 모든 것이 AI 예술과 같은 것으로 펼쳐질 것이라고 생각합니다. 분명히 표절과 저작권 침해에 대한 논쟁이 있습니다. 누군가가 DALL·E 2에 가서 수많은 사진을 훈련시키면 저작권 침해에 해당합니까? 그리고 그들이 예술가의 스타일을 배운 다음 그들에게 그들의 것과 같은 작품을 제작하도록 요청한다면 어떨까요? 그게 저작권 침해인가요? 그리고 거기에는 법률 시스템과 사회가 알아내야 할 많은 것들이 있을 것입니다. 토론에서 때때로 놓치고 있다고 생각하는 한 가지는 현재 모델을 훈련시키는 것이 저작권 침해라고 결정하더라도 – 우리는 인간에게는 그것을 받아들이지 않습니다. 인간은 사물을 보고 자신의 스타일을 복사할 수 있습니다. 누군가는 여전히 개방적이고 허용 가능한 작업에 대해 훈련된 모델을 구축할 것이며 이미지 생성에 꽤 능숙해질 것입니다. 그 배는 어느 정도 항해했다고 생각합니다.

얼마나 커질 수 있습니까?

Des: 여기에 몇 가지 바늘을 던지기 위해 대규모 서버 팀이 없는 한 예로 AWS를 언급했습니다. 서버로 가득 찬 서류 캐비넷이 없습니다. OpenAI, Anthropic 등의 존재로 인해 AI 팀이 더 작습니까? 존재하지 않는다면 서버 팀의 AI 버전을 구축하시겠습니까?

Fergal: 네, 제 말은, 그건 엄청난 질문입니다. 그것을 보는 다른 방법이 있습니다. AI 팀이 방해를 받고 있습니까? 그리고 우리는 이것에 대해 왔다 갔다 했습니다. 대형 언어 모델의 현재 버전을 살펴보겠습니다. 나는 최근에 영화 추천인으로 GPT를 가지고 놀고 있었다. "이봐, 난 X와 Y를 보는 게 좋아. 나에게 뭔가 제안해줄래?" 그리고 나쁘지 않습니다. 최고의 데이터를 모두 가지고 있는 잘 조정된 추천자만큼 좋지는 않지만 무작위로 영화를 선택하는 것보다 훨씬 낫습니다. 그리고 그것은 출력될 것입니다, 그것은 추리하는 것처럼 뱉어낼 것입니다. 그리고 그것의 추론은 그것이 하는 모든 것과 마찬가지로 그럴듯하지만 나쁘지는 않습니다. 그래서 다시 말하지만, 지금은 기술이 훌륭하지 않더라도 – 영화 추천기나 다른 것을 제품화하기 위해 서두르지 않을 것입니다 – 10배 또는 100배 더 좋아지면 어떨까요? 더 많은 훈련 데이터나 더 나은 훈련 체계를 제공한다면 어떨까요?

"많은 비계, 이를 둘러싼 많은 제품 작업과 함께 잘하는 특정 분야에서 이 새로운 기능의 결합으로 수많은 기회가 있습니다."

Des: GPT-4를 기다립니다.

퍼걸: 그래, GPT-6, 그게 어떻게 생겼든 간에, 맞지? 100억 달러로 컴퓨팅 및 강화를 구매하고 사람의 피드백을 학습하면 실제로 발생합니다. 그런 일이 발생하면 어떻게 됩니까? 아직도 추천 시스템을 구축하고 계십니까? 누군가 당신에게 추천 시스템을 요구하는데, 당신은 그렇게 하시겠습니까? Sam Altman이 이에 대해 이야기했습니다. 이것을 인간 수준으로 만들 수 있다고 상상해보십시오. 인간 수준의 일반 지능이 있다면 기계 학습 팀이 더 이상 필요합니까? Or would you just sit down like, “Hi, how's it going? Today I'm going to teach you how to be a movie recommender.” You've got to give lots of examples, and it's got to be able to consume a data set about movies. But maybe it's just like, “Hey, AI system, write the code to consume the data set about movies.” 모르겠어요.

“You're getting into big questions, Des. And maybe that's just where all our heads are going at the moment. But you can get into big questions about, like, by the time that's disrupted, what percentage of current human economic activity is disrupted?”

Des: Yeah, totally correct.

Fergal: But that's a very bullish case. Maybe we hit some asymptote before then, and I certainly don't think we're near that point at the moment. I think you still need your machine learning team. And I think we're certainly in this happy Jevons Paradox for a while where a lot of stuff is unlocked, and maybe we're doing slightly different work than we were before – we're certainly doing a lot more prompt engineering – but these systems are not yet good enough to just train-

Des: Yeah. To outsource the whole thing to OpenAI, and they'll solve our problems.

“If you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that”

Fergal: Right, yeah. I really hesitate to speculate about when. Just to give you one super concrete limitation. All these models have a prompt size. The amount of context you can pass to it with a prompt is limited. And that limit is baked in pretty low down. And so, a lot of the stuff the team is doing at the moment is around, “Hey, how do we work around that? How do we give them a relevant article?” And we're using more traditional machine learning techniques – traditional as in, invented five years ago. The classic stuff.

There are tons of opportunities with the marriage of this new capability in specific things it's good at with a lot of scaffolding, a lot of product work around that. I think there will be disruption, and it feels like extremely disruptive tech to me, particularly when you project a few years out. But we don't know how big it'll be. And I don't think anyone knows how big it'll be yet. Maybe the folks in OpenAI do. But if you put 100X more resources into model training or dataset creation, what return do you get? Is it 10X, a 100X, a 1000X? I don't know if anyone knows that. There's certainly no consensus on it.

Des: There was that quote from Sam Altman where he was asked something – I think it was some irrelevant question about challenges in San Francisco or something like that – and his answer was, “When you believe that artificial general intelligence is as close as I do, you struggle to think about any other problem.” When I read that, I was like, “Okay, well, he's certainly leaned a certain way.” Now, he could still be thinking in 20 years, but some societal problems are kind of irrelevant against the greater potential wave of what could be happening here.

“There's clearly a pitfall to avoid and an attractive pitfall to fall into”

Fergal: Yeah. Full disclaimer mode now. I think there's a lot of merit to that style of thinking, personally. I remembered there were times in the history of computation when it was like, “Oh, if you've got a million dollars to solve a computing problem and you need to solve it as soon as possible, what you need to do is sit with the million dollars for two years and then buy the fastest computer that the million could buy.

Des: I remember my own career. In 2006 or 2007, mobile websites were all the thing. Pre-iPhone, right? And people were talking about WAP and JMI files or JNI files, and everyone hyped up their mobile strategy. And literally, by the time I finished working out what I thought was the right recommendation for a client, the iPhone had launched. And I was like, “You know what? 그것에 대해 걱정하지 마십시오. Sit on your hands. Apple's going to solve this entire problem.” And sure enough, two months later, “Hey, it turns out all our websites are mobile-ready.” Sometimes, a tech wave can be so big that any temporal thing you do will just be irrelevant against the magnitude of what's going to happen.

Fergal: Yeah, if you believe AGI is close, I guess I can logically see that position. Now, clearly, it seems like there's a terrible mistake to make there where-

Des: Yeah, where we're wrong, and you've probably just been sitting on your hands.

Fergal: You've given yourself a license to ignore terrible, terrible things. So obviously, you've got to wait, and I'm not making any judgment on that. But yeah, there's clearly a pitfall to avoid and an attractive pitfall to fall into. I think it's very hard to bet against increasingly general intelligence. And I don't know timelines and stuff, but I think there are big questions for people to think about. Now, that's definitely way outside customer support or customer service.

Des: No, yeah. Well, look, thank you very much. We'll check in in six weeks to find out that this podcast is yet again out of date. We'll see where we're at again. But for now, thank you very much.

Fergal: Thanks, Des.

CTA-Intercom-on-Product