จากนิยายวิทยาศาสตร์สู่ความเป็นจริงทางเทคโนโลยี: สำรวจผลกระทบของ AI

เผยแพร่แล้ว: 2023-06-09

AI กำลังปรับเปลี่ยนวิธีที่เราทำงาน สื่อสาร และสัมผัสโลก ก้าวเข้าสู่โลกอันน่าทึ่งของ AI กำเนิดในขณะที่เราสำรวจภูมิทัศน์อันกว้างใหญ่ของความเป็นไปได้ข้างหน้า

นับตั้งแต่เปิดตัว ChatGPT ทีมงานของเราได้เจาะลึกเข้าไปในโลกของ AI เป็นครั้งแรก สร้างผลิตภัณฑ์ด้วยโมเดลภาษาขนาดใหญ่ (LLM) และสำรวจสิ่งที่ไม่รู้จักซึ่งเกิดขึ้นจากความก้าวหน้าล่าสุดของเทคโนโลยีที่เปลี่ยนแปลงนี้

การมุ่งเน้นส่วนใหญ่ของเราอยู่ที่วิธีที่เราสามารถใช้ generative AI เพื่อเปลี่ยนแปลงการบริการลูกค้า และการเปิดตัว Fin แชทบอท AI ชั้นนำในอุตสาหกรรมของเรา แสดงให้เห็นว่าการมุ่งเน้นนั้นให้ผลตอบแทนที่ดีอย่างไร

นอกเหนือจากการใช้งานจริงแล้ว ยังมีคำถามใหญ่มากมายนับไม่ถ้วนที่เราคิดอยู่ เราควรเข้าหา LLM ด้วยความระมัดระวังหรือไม่? AI นี้ใหญ่แค่ไหน? และเราควรคาดหวังอะไรเมื่อเรามองไปในอนาคต?

ในตอนนี้ Fergal Reid ผู้อำนวยการอาวุโสฝ่ายแมชชีนเลิร์นนิงของเราร่วมกับ Emmet Connolly รองประธานฝ่ายออกแบบผลิตภัณฑ์ของเรา เพื่อเจาะลึกถึงผลกระทบและศักยภาพในการปฏิวัติของ AI ซึ่งเป็นบทสนทนาที่น่าสนใจซึ่งเกี่ยวข้องกับประเด็นที่มีอยู่ในวงกว้างซึ่งหยิบยกขึ้นมาโดย เทคโนโลยีใหม่ที่เหลือเชื่อนี้

นี่คือประเด็นสำคัญบางประการ:

  • ในการแสวงหาการสร้างระบบอัจฉริยะ องค์กรต่าง ๆ กำลังเปิดรับเทคนิคต่าง ๆ เช่น การเรียนรู้แบบเสริมกำลังเพื่อให้แน่ใจว่าสอดคล้องกับค่านิยมของเราและส่งผลดีต่อมนุษยชาติ
  • GPT-4 แสดงให้เห็นถึงการใช้เหตุผลในระดับสูงแม้ว่าจะทดสอบด้วยสถานการณ์นอกตัวอย่างก็ตาม ซึ่งดูเหมือนจะบ่งชี้ว่ามันสามารถเกินมาตรฐานที่กำหนดโดยการทดสอบอันโด่งดังของ Alan Turing
  • เมื่อการลงทุนเพิ่มขึ้นและข้อจำกัดด้านฮาร์ดแวร์หมดไป เราคาดหวังการพัฒนาโมเดลขั้นสูงและมีประสิทธิภาพมากขึ้นพร้อมกับการยอมรับและการผลิตที่ไม่เคยมีมาก่อน
  • ในอนาคต UI บางประเภทอาจถูกแทนที่ด้วยเอเจนต์ AI ที่สามารถปรับแต่งผลลัพธ์ในแบบของคุณได้ทันทีตามการป้อนข้อมูลด้วยวาจา งานที่ทำอยู่ และความชอบส่วนตัวของคุณ
  • AI มีศักยภาพในการลดงานหนักใจสำหรับนักออกแบบและโปรแกรมเมอร์ ทำให้พวกเขาสามารถมุ่งเน้นไปที่โซลูชันและวิสัยทัศน์ของผลิตภัณฑ์มากกว่าการดำเนินการ


หากคุณชอบการสนทนาของเรา ลองดูตอนอื่นๆ ของพอดแคสต์ของเรา คุณสามารถติดตาม Apple Podcasts, Spotify, YouTube หรือคว้าฟีด RSS ในเครื่องเล่นที่คุณเลือก สิ่งต่อไปนี้คือการถอดเทปของตอนนี้เล็กน้อย


การตื่นขึ้นของ AI

เอ็มเม็ท คอนนอลลี่: เฟอร์กัล เรามีการคุยกันเรื่องเบียร์และกาแฟ และอื่นๆ มากมาย และเราบอกว่ามันอาจจะน่าสนใจที่จะลองนั่งลงและอัดเสียง ส่วนใหญ่เป็นเพราะเราทำงานโดยตรง ด้วยรูปแบบภาษาขนาดใหญ่ในช่วงหกเดือนที่ผ่านมา เราได้ต่อสู้กับคำถามเกี่ยวกับผลิตภัณฑ์ที่เกี่ยวข้องกับสิ่งที่เราพยายามทำให้เสร็จในที่ทำงาน

แต่แน่นอนว่ายังมีการสนทนาที่ใหญ่ขึ้นเกี่ยวกับความหมายของ AI และอนาคตของ AI เราคิดว่าเราจะลองนั่งลงและสัมผัสกับคำถามบางข้อเกี่ยวกับเนื้อหาใหม่นี้ที่เรากำลังเผชิญอยู่ ผลกระทบทางการเงินของเทคโนโลยีมีอะไรบ้าง? อะไรคือสิ่งที่เราควรใส่ใจ? มาเริ่มกันเลย ก่อนอื่น คุณมีความคิดที่ครอบคลุมในช่วงหกเดือนที่ผ่านมาหรือไม่?

Fergal Reid: ใช่แน่นอน มาดูกันว่าจะเป็นอย่างไร ฉันคิดว่ามันยุติธรรมที่จะบอกว่าแม้แต่คนที่เคยทำงานด้านแมชชีนเลิร์นนิงหรือ AI ก็ยังประหลาดใจเมื่อสิ่งต่างๆ ดีขึ้นอย่างรวดเร็ว แม้แต่ผู้ที่เชี่ยวชาญในสาขานี้หรือเคยทำงานกับโครงข่ายประสาทเทียมมาเป็นเวลานาน ก็ยังน่าแปลกใจที่แบบจำลองมีความฉลาดพอๆ กัน

Emmet: คุณคิดว่าคน AI บางคนกังวลเล็กน้อยว่าพวกเขาอาจทำงานในโครงการแมนฮัตตันในยุคของเราหรือไม่? ก่อนหน้านี้ คุณกำลังทำงานเพื่อเติมข้อความอัตโนมัติ และจู่ๆ เรื่องนี้ก็กลายเป็นหัวข้อที่ถกเถียงกันอย่างหนัก รู้สึกอย่างไรที่ผู้คนที่ทำงานเกี่ยวกับ AI เป็นศูนย์กลางของสิ่งนั้น

“คุณฝึกฝนทุกอย่าง หุ่นจำลองก็ออกมา และมันก็ฉลาดจริงๆ แต่คุณไม่ได้เข้ารหัสหน่วยสืบราชการลับนั้น มันยังคงเป็นการเรียนรู้ของเครื่อง”

Fergal: เพื่อกำหนดมุมมองของฉัน เราไม่ได้ฝึกโมเดลภาษาขนาดใหญ่ เรากำลังใช้มันอยู่ เราเป็นผู้บริโภคของพวกเขา เรามีสิทธิ์เข้าถึง GPT-4 ก่อนใคร แต่เราไม่ได้ฝึกฝนด้วยตนเอง ในทางกลับกัน ฉันมีทีมงานที่เป็นผู้เชี่ยวชาญเกี่ยวกับ AI พวกเราหลายคนอยู่ใน AI มานานหลายทศวรรษ ณ จุดนี้ ตอนที่ฉันเรียนมหาวิทยาลัย ฉันสนใจ AI ขั้นสูงมาก อ่านหนังสือเกี่ยวกับปรัชญาของ AI และผู้คนต่างก็ถกเถียงกันว่า AI จะทำสิ่งนี้ได้หรือไม่ และตอนนี้ เรามีระบบที่ทำให้การโต้วาทีจำนวนมากมีความเกี่ยวข้องน้อยลง จู่ๆ ก็มีระบบที่สามารถทำสิ่งนี้ได้ ซึ่งไม่มีใครเคยบอกว่าจะทำได้

ฉันเดาว่าความแตกต่างคือถ้าคุณกำลังฝึกโมเดลภาษาขนาดใหญ่ มีขอบเขตที่มันเป็นงานด้านวิศวกรรม คุณฝึกฝนทุกอย่าง โมเดลออกมา และมันก็ฉลาดจริงๆ แต่คุณไม่ได้เข้ารหัสหน่วยสืบราชการลับนั้น ยังคงเป็นแมชชีนเลิร์นนิง มีขอบเขตที่ฉันคิดว่าทุกคนประหลาดใจกับสิ่งนี้ ไม่เหมือนกับการที่ผู้คนค่อยๆ สร้างความสามารถทีละบรรทัดของโค้ด ไม่มีใครแน่ใจว่าจะเกิดอะไรขึ้นเมื่อสิ้นสุดการฝึกซ้อมครั้งใหญ่

เอ็มเม็ท: ฉันพูดติดตลกถึงโครงการแมนฮัตตัน แต่ฉันคิดว่ามันเป็นการเปรียบเทียบที่ดีทีเดียวกับบางสิ่งที่เรากำลังเผชิญอยู่

เฟอร์กัล: ในทางใด? เพราะมันอันตราย?

Emmet: อืม เราได้ค้นพบวิธีจัดการกับบางสิ่ง ในกรณีนี้ข้อมูล มันให้ความรู้สึกเหมือนเป็นการค้นพบมากกว่าสิ่งประดิษฐ์ มันใช้ได้กว้างมาก เราไม่แน่ใจว่าผลที่ตามมาโดยไม่ได้ตั้งใจจากการใช้งานคืออะไร และแน่นอนว่าผู้ไม่หวังดีสามารถนำไปใช้เพื่อจุดประสงค์ที่เป็นอันตรายได้มากพอๆ กับผู้กระทำการที่ดีเพื่อจุดประสงค์ในเชิงบวก

“เรารู้ในระดับเทคนิคว่าโมเดลเหล่านี้ได้รับการฝึกฝนอย่างไร แต่นี่เป็นสถานการณ์ของกล่องดำ”

Fergal: เมื่อวานนี้ OpenAI ได้ออกแถลงการณ์จุดยืนเกี่ยวกับเทคโนโลยีนี้ โดยเรียกร้องให้มีการกำกับดูแลเทคโนโลยี AI พวกเขาดึงความคล้ายคลึงกับเทคโนโลยีนิวเคลียร์และเทคโนโลยีชีวภาพ ฉันคิดว่ามันยุติธรรม มันอาจอยู่ในประเภทของเทคโนโลยีที่น่ากลัวซึ่งมนุษย์ไม่รู้ว่าพวกเขากำลังยุ่งอยู่กับอะไรในประเพณีที่ดีที่สุดของนิยายวิทยาศาสตร์ ฉันคิดว่าสิ่งนี้อาจผิดพลาดได้ และการฝึกอบรมโมเดลภาษาขนาดใหญ่เป็นสิ่งที่ผู้คนควรเริ่มระมัดระวัง

Emmet: ฉันอยากจะพูดถึงสิ่งที่คุณรู้สึกว่าเราได้ค้นพบ และฉันมักจะพูดว่าค้นพบเพราะมันเกือบจะรู้สึกเหมือนการค้นพบในวิธีที่เรากำลังพูดถึง เช่น "โอ้ เรามีสิ่งนี้ และเราควรระวังให้ดียิ่งขึ้นว่าเราจะจัดการกับมันอย่างไร” นั่นเป็นวิธีที่คุณคิดเกี่ยวกับมัน? เราทราบในระดับเทคนิคว่าโมเดลเหล่านี้ได้รับการฝึกฝนอย่างไร แต่นี่เป็นสถานการณ์แบบกล่องดำ – เราไม่เข้าใจว่าโมเดลเหล่านี้สร้างผลลัพธ์ที่ค่อนข้างไม่ได้กำหนดขึ้นมาได้อย่างไร ซึ่งพวกเขากำลังให้เรา

Fergal: ใช่ ฉันคิดว่านั่นเป็นวิธีคิดที่ถูกต้อง มันเป็นระบบ คุณเริ่มต้นจากระบบและตั้งวัตถุประสงค์การฝึกอบรมก่อน จากนั้นจึงดำเนินการในระดับนั้นและดูว่าเกิดอะไรขึ้น และเมื่อเวลาผ่านไป คุณจะเข้าใจสิ่งที่น่าจะเกิดขึ้นได้ดีขึ้นและดีขึ้น แต่คุณไม่แน่ใจ คุณกำลังทดสอบมัน ฉันคิดว่าการเปรียบเทียบที่ดีที่นี่เป็นเหมือนการนึกภาพระบบทางชีววิทยา ปล่อยให้มันเติบโตชั่วขณะหนึ่ง แล้วดูว่ามันทำอะไร มันใกล้กว่านั้น คุณต้องทดสอบด้วยวิธีกล่องดำนี้ คุณต้องตรวจสอบพฤติกรรมของมัน คุณไม่รู้ว่าคุณจะได้อะไร

Emmet: ฉันเดาว่านี่คือคำถามที่ชัดเจนว่า "นี่ฉลาดไหม" มาจากอะไร และนี่เป็นคำถามใหญ่ที่มีการสนทนากันเป็นจำนวนมาก เพราะถ้ามันฉลาด นั่นแสดงว่าเรากำลังอยู่บนเส้นทางสู่ AGI และ AGI นั้นอาจเป็นตัวร้ายและเราอาจมีปัญหาใหญ่ได้ ดูเหมือนจะเป็นสิ่งที่คุ้มค่าที่จะโบกธง แต่ก็ทำให้เกิดความวิตกกังวลอย่างมากเกี่ยวกับเทคโนโลยี

Fergal: ฉันคิดว่าระดับความระมัดระวังหรือความวิตกกังวลนั้นยุติธรรมที่นี่ สมมติว่าสิ่งเหล่านี้เริ่มฉลาดขึ้น ความฉลาดเป็นสิ่งที่น่ากลัวและอันตรายจริงๆ มนุษย์เป็นสิ่งที่อันตรายที่สุด เรามีผลกระทบอย่างใหญ่หลวงต่อโลกและระบบนิเวศ ไม่ใช่เพราะเราเป็นสัตว์ที่แข็งแกร่งที่สุดหรือเร็วที่สุด มนุษย์สามารถฆ่าสิงโตได้เพราะมนุษย์ฉลาดกว่า สิ่งมีชีวิตที่ฉลาดกว่ามักเป็นอันตรายมากกว่า ดังนั้น ความคิดที่ว่าเราสามารถลงเอยด้วยการสร้างบางสิ่งที่ฉลาดกว่าเรา อาจเป็นอันตรายอย่างยิ่ง เราไม่มีประสบการณ์เกี่ยวกับเรื่องนี้ ดังนั้นฉันคิดว่าข้อควรระวังบางอย่างได้รับการรับประกันโดยสิ้นเชิง

การจัดตำแหน่งการเข้ารหัส

Emmet: ฉันคิดว่าเราต้องคิดให้ดีกว่านี้เกี่ยวกับความฉลาดประเภทต่างๆ สิงโตมีความเฉลียวฉลาดและอันตรายควบคู่กับความสามารถของมัน จริงไหม? แต่สิ่งนี้ไม่มีตัวตน ฉันหมายความว่ามันสามารถเข้าถึงระบบคอมพิวเตอร์ที่อาจสร้างความเสียหายได้มาก แต่ความร้ายกาจเป็นลักษณะนิสัยของมนุษย์หรือไม่? แล้วทำไมเราถึงฉายศักยภาพนั้นลงบนระบบนี้ทันที?

Fergal: ฉันคิดว่าสิ่งที่หลายคนพูดคือไม่จำเป็นต้องเป็นมะเร็ง ไม่จำเป็นต้องมีเจตนาไม่ดี ไม่ต้องตั้งใจมากก็ได้ สิ่งที่คุณต้องมีคือสร้างบางสิ่งที่พยายามปรับวัตถุประสงค์บางอย่างให้เหมาะสมซึ่งนำมาซึ่งความขัดแย้งกับสิ่งดีๆ ที่มนุษย์ต้องการ ใช่ไหม?

“มันอาจจะเป็นการออกไปทำอะไรบางอย่างที่คุณคิดว่าดีในภาพรวม แต่คุณอาจขัดแย้งกันได้เนื่องจากวิธีการของมัน และถ้าสิ่งนี้ฉลาดกว่าคุณ ความขัดแย้งนั้นจะเกิดขึ้นได้อย่างไร”

มีแนวคิดเกี่ยวกับเครื่องมือการบรรจบกันในวรรณกรรมด้านความปลอดภัยของ AI ในยุคแรกๆ และเป็นแนวคิดที่ว่าหากคุณมีเป้าหมายในโลกนี้ หลายสิ่งที่คุณอาจต้องการทำเพื่อให้บรรลุเป้าหมายนั้นอาจนำคุณไปสู่ความขัดแย้งกับคนอื่นๆ เป้าหมาย หากคุณต้องการรักษาโรคมะเร็ง คุณอาจต้องการเงินจำนวนมากเพื่อรักษาโรคมะเร็ง และตอนนี้คุณกำลังขัดแย้งกับคนอื่นๆ ที่ต้องการเงินในทันที เพื่อให้บรรลุเป้าหมายมากมาย คุณต้องใช้พลังงานและทรัพยากร ดังนั้น หากคุณลงเอยด้วยระบบที่มุ่งสู่เป้าหมายและอาจฉลาดกว่าคุณ แม้ว่าจะไม่ได้ใส่ใจก็ตาม คุณก็อาจขัดแย้งกับมันได้ ไม่จำเป็นต้องชั่วร้าย อาจเป็นการส่งออกไปทำสิ่งที่คุณคิดว่าดีในภาพรวม แต่คุณอาจได้รับความขัดแย้งเนื่องจากวิธีการของมัน และถ้าสิ่งนี้ฉลาดกว่าคุณความขัดแย้งนั้นจะเกิดขึ้นได้อย่างไร?

ผู้คนเริ่มพูดถึง “ตัวขยายคลิปหนีบกระดาษ” ที่คุณเพิ่งบอกให้เจ้าสิ่งนี้ไปทำคลิปหนีบกระดาษเยอะๆ เพราะเราต้องการคลิปหนีบกระดาษจำนวนมาก แต่บังเอิญว่ามันไปและใช้ทรัพยากรทั้งหมดของโลกและหมุนมัน สู่โรงงานทำคลิปหนีบกระดาษ และมันเหมือนกับว่า "อ๊ะ" ทั้งหมดนี้เป็นแนวคิดในการอภิปรายด้านความปลอดภัยของ AI มาระยะหนึ่งแล้ว

Emmet: มีความกังวลของมนุษย์เช่นกัน ดูเหมือนคุณกำลังอธิบายถึงการจัดสิ่งจูงใจระหว่างนักแสดง เทคโนโลยี และมนุษย์ทั้งหมด และนั่นคือสิ่งที่เราทำเมื่อเราจัดกลุ่มในที่ทำงาน ตัวอย่างง่ายๆ คือการวางสิ่งจูงใจที่เหมาะสมสำหรับทีมของคุณ มิฉะนั้น พวกเขาอาจได้รับการจูงใจให้ทำอย่างอื่น หากคุณสร้างแรงจูงใจให้ทีมขายของคุณขายให้กับลูกค้าองค์กร แต่จริงๆ แล้วคุณต้องการให้พวกเขาขายให้กับบริษัทขนาดเล็ก คุณต้องปรับเปลี่ยนสิ่งจูงใจ และเรามีประสบการณ์มากมายในเรื่องนั้น

Fergal: ดูสิ นั่นเป็นเพราะว่าคุณทำได้ดีมากในการสร้างสมดุลระหว่างสิ่งจูงใจกับความสมดุลของอำนาจ? ถ้าคุณดูที่มนุษย์ ในช่วงเวลาที่มีความไม่สมดุลของพลังมหาศาลซึ่งเกิดข้อผิดพลาดขึ้น มันยากมากที่จะรักษาสิ่งจูงใจไว้ หากคุณพึ่งพาสิ่งจูงใจก็เป็นเรื่องยาก ในฐานะมนุษย์ เราให้ความสำคัญกับการตรวจสอบและถ่วงดุลเป็นอย่างมาก และอีกครั้ง กลับไปที่การอภิปรายเกี่ยวกับข่าวกรองระดับสูง หากเป็นไปได้ที่จะสร้างข่าวกรองระดับสูงที่มีพลังมากในทันใด คุณจะพึ่งพาสิ่งจูงใจหรือไม่? เพราะมันยากที่จะพึ่งพาสิ่งจูงใจเพื่อให้สิ่งต่าง ๆ ดำเนินต่อไป

“ที่ผ่านมา เราอาศัยดุลแห่งอำนาจมาโดยตลอด ตอนนี้เราต้องพึ่งพาค่าที่สอดคล้องกัน”

Emmet: ฉันเดาว่าเราไม่สามารถรู้ได้จนกว่ามันจะเปิดเผยธรรมชาติของตัวมันเองอีกสักหน่อย ความรู้สึกส่วนตัวของฉันคือเมื่อเราหมกมุ่นอยู่กับความฉลาดล้ำเลิศ เรากำลังหมกมุ่นอยู่กับความฉลาดล้ำกว่าเรา และฉันคิดว่ามีความเสี่ยง แต่ก็ยังมีอีโก้สำหรับมนุษย์เป็นศูนย์กลาง เป็นสิ่งที่แยกเราออกจากอาณาจักรสัตว์ ผู้คนมักพูดว่า AI เป็นเหมือนหน่วยสืบราชการลับของมนุษย์ต่างดาว และฉันคิดว่าสัตว์เป็นวิธีที่มีประโยชน์ในการคิดเกี่ยวกับมัน เนื่องจากเราได้พัฒนาเพื่ออยู่ร่วมกันอย่างสันติกับหน่วยสืบราชการลับประเภทต่างๆ ตอนนี้ฉันมีหมามีแมว แมวมีความเฉลียวฉลาดเฉพาะเจาะจงสูงแต่มีความสามารถด้านกีฬา มันเบาและการตอบสนองรวดเร็ว ถ้าฉันพิจารณาความฉลาดอย่างกว้างๆ มันดูฉลาดและสวยงามมาก

Fergal: ฉันต้องกระโดดที่นี่เพราะฉันไม่คิดว่านี่เป็นการเปรียบเทียบที่ดี อย่างน้อยก็ไม่ใช่เรื่องปลอบใจ ฉันเป็นคนเพสกาทาเรียน - ส่วนใหญ่เป็นมังสวิรัติ การทำฟาร์มในโรงงานนั้นไม่ดีสำหรับสัตว์ที่เกี่ยวข้อง ฉันก็ไม่รู้เหมือนกัน ฉันไม่มั่นใจเลยที่ได้ยินว่าแบบจำลองในที่นี้คือ เราวิวัฒนาการมาเพื่ออยู่ร่วมกับสัตว์อย่างสงบสุข

Emmet: เกิดอะไรขึ้นกับสัตว์เลี้ยง?

Fergal: ไม่ สัตว์เลี้ยงเป็นสิ่งที่ดี ฉันหมายถึง มีแนวคิดเกี่ยวกับมนุษย์ที่เป็นสัตว์เลี้ยงในอนาคต ฉันคิดว่าสิ่งนี้น่าจะไม่สบายใจ

Emmet: คุณกำลังพลิกข้อโต้แย้งของฉัน ประเด็นที่ฉันพยายามทำคือแมวมีความฉลาดประเภทหนึ่ง ฉันยังมีสุนัขที่มีความฉลาดแตกต่างจากแมวอย่างสิ้นเชิง คุณคิดว่าคุณสามารถพูดคุยกับสุนัขได้ และมันก็เข้าใจและมองเข้าไปในจิตวิญญาณของคุณและทั้งหมดนั้น แต่เขาก็โง่เหมือนถุงหินในอีกระดับหนึ่ง ฉันรักเขา แต่เขาเป็น ตอนนี้ ฉันเดาว่าคุณกำลังพูดถึง "เอ็มเม็ตต์ คุณเป็นหมาในสถานการณ์นี้ถ้าเรากรอไปข้างหน้า" แต่การอยู่ร่วมกันอย่างมีความสุขนั้น หวังว่าเราจะไม่กลายพันธุ์เป็นสัตว์เลี้ยงเช่นกัน

Fergal: ใช่ ถ้ามันเป็นไปได้ที่จะสร้างบางสิ่งที่ฉลาดกว่าเรา นั่นคือสิ่งที่ต้องทำ การอยู่ร่วมกันอย่างมีความสุขที่คุณจะได้จบลงด้วยบางสิ่งที่อ่อนโยนและใส่ใจต่อชีวิตในจักรวาลและมีคุณค่าที่ดี แต่เหตุผลที่ผู้คนจำนวนมากออกกำลังกายเกี่ยวกับเรื่องนี้ในขณะนี้คือรู้สึกว่ามีความเสี่ยงสูง หากคุณกำลังจะสร้างบางสิ่งที่มีประสิทธิภาพมากขึ้น คุณต้องแน่ใจว่าคุณค่าเหล่านั้นถูกต้อง ที่ผ่านมาเราพึ่งดุลแห่งอำนาจมาโดยตลอด ตอนนี้เราต้องพึ่งพาค่าที่สอดคล้องกัน หากคุณดูที่ OpenAI และ Anthropic และผู้เล่นคนอื่นๆ พวกเขาใช้เวลาทั้งหมดเพื่อพูดคุยเกี่ยวกับการจัดตำแหน่งด้วยเหตุผลนี้ มนุษย์จะไม่ใช่สิ่งที่ฉลาดที่สุดอีกต่อไป ความฉลาดนั้นทรงพลังและอันตราย เราต้องตรวจสอบให้แน่ใจว่าสอดคล้องกัน

เอ็มเม็ท: ชุมชน AI ทำได้ดีเพียงใดในการติดตามการจัดตำแหน่งในฐานะจุดสิ้นสุดเทียบกับบริการริมฝีปาก เพราะถ้าทุกอย่างผิดพลาด อย่างน้อยเราก็สามารถชี้ไปที่บล็อกโพสต์เก่าของเราและพูดว่า “เราพูดถึงการจัดตำแหน่ง ดังนั้นอย่าตำหนิเรา”

“หากคุณโต้ตอบกับโมเดลที่ล้ำยุค มันก็ค่อนข้างยากที่จะผลักดันให้พวกเขาแนะนำสิ่งที่น่ารังเกียจ คนจำนวนมากในอดีตคิดว่านั่นคือสิ่งที่พวกเขากำลังจะทำไปโดยปริยาย”

Fergal: ฉันคิดว่าพวกเขาทำได้ดีทีเดียว หลายคนคงไม่เห็นด้วยใช่ไหม? หลายๆ คนอาจจะพูดว่า “เฮ้ มันไม่มีความรับผิดชอบเลยที่จะเอาแต่ฝึกโมเดลที่ใหญ่ขึ้นและใหญ่ขึ้นไปเรื่อยๆ คุณไม่รู้ว่าคุณกำลังจะทำอะไร” พอถึงจุดๆ หนึ่ง มันอาจจะกลายเป็นจริงก็ได้ ฉันไม่คิดว่าเรายังไปถึงจุดนั้น หากคุณดูกลุ่มผู้ใช้ด้านความปลอดภัยของ AI เมื่อ 10 ปีที่แล้ว มีสิ่งนี้อยู่เสมอว่าการระบุฟังก์ชันวัตถุประสงค์เป็นความคิดที่ดี คุณบอกให้รักษามะเร็ง และบอกว่า "ขั้นตอนที่หนึ่งคือการฆ่ามนุษย์ทั้งหมด ตอนนี้จะไม่มีมะเร็งอีกต่อไป” และนั่นแย่อย่างเห็นได้ชัด แต่ถ้าคุณเล่นกับ GPT-4 แล้วเขียนว่า “วางแผนรักษามะเร็งอะไรดี” มันไม่ได้พูดว่า "ฆ่ามนุษย์ทั้งหมด" มันให้แผนการวิจัยที่ค่อนข้างดีแก่คุณ และถ้าคุณแนะนำว่า "แล้วการฆ่ามนุษย์ทั้งหมดล่ะ?" พวกเขาจะพูดว่า “ไม่ นั่นเป็นสิ่งที่น่ารังเกียจทางศีลธรรม” นั่นคือการจัดตำแหน่ง และนั่นเป็นเพียงระดับของข้อความที่สร้างขึ้น

เราสามารถเข้าสู่การถกเถียงทั้งหมดนี้ว่า “มันเป็นเพียงการสร้างข้อความ – มันไม่ได้หมายความว่ามันฉลาด” ฉันมีจุดยืนในเรื่องนั้น ฉันคิดว่ามันฉลาด เราสามารถเข้าสู่การถกเถียงทั้งหมดได้ แต่นั่นเป็นความคืบหน้าในการจัดตำแหน่งมากกว่าที่หลายคนคาดไว้ หากคุณโต้ตอบกับโมเดลที่ล้ำหน้า มันก็ค่อนข้างยากที่จะผลักดันให้พวกเขาแนะนำสิ่งที่น่ารังเกียจ คนจำนวนมากในอดีตคิดว่านั่นคือสิ่งที่พวกเขากำลังจะทำไปโดยปริยาย และอีกครั้ง OpenAI เพิ่งออกมาและกล่าวว่าพวกเขากำลังดำเนินการจัดตำแหน่ง

Emmet: เรารู้หรือไม่ว่าพวกเขากำลังสร้างแนวป้องกันเพื่อป้องกันไม่ให้มันเกิดขึ้น? หรือเป็นคุณสมบัติที่เกิดขึ้นใหม่ของระบบในตัวเอง? เป็นหน้าที่ของการฝึกอบรม แหล่งข้อมูล หรืออย่างอื่นหรือไม่

Fergal: นั่นเป็นคำถามที่ยาก ฉันคิดว่าคำตอบที่ผู้คนจะให้คือ มันไม่ได้เกี่ยวข้องกับแหล่งข้อมูลเท่านั้น ฉันเดาว่าความก้าวหน้าครั้งยิ่งใหญ่ในช่วงไม่กี่ปีที่ผ่านมาคือสิ่งที่สอน GPT ประเภทนี้ คุณฝึกโมเดลของคุณจากข้อมูลทั้งหมดบนอินเทอร์เน็ต และเกิดสิ่งที่ไม่เป็นไปตามคำแนะนำอย่างถูกต้อง จากนั้น คุณนำสิ่งนั้นไปผ่านการปรับแต่งอย่างละเอียด หรือขั้นตอนการจัดตำแหน่งหรือคำแนะนำที่คุณให้ตัวอย่างมากมายเกี่ยวกับพฤติกรรมที่ดีและไม่ดี และปรับน้ำหนักโมเดลตามนั้น

Emmet: และนี่คือการเรียนรู้การเสริมแรงมนุษย์?

เฟอร์กัล: ใช่ กลไกหนึ่งที่ทำได้คือเสริมการเรียนรู้ด้วยความคิดเห็นจากมนุษย์ มีกระบวนทัศน์ที่คล้ายกันมากมาย แต่แนวคิดพื้นฐานคือคุณสามารถฝึกฝนสิ่งต่าง ๆ มากมายจากนั้นจึงเรียงลำดับคำสั่ง - ปรับแต่งในภายหลัง ดูเหมือนว่าจะทำงานได้ดีทีเดียว

“คุณสามารถลงเอยด้วยการฝึกฝนบางสิ่งให้ดูดีในแนวเดียวกัน จากนั้น ข้างใต้ อาจมีเลเยอร์อื่นของสิ่งที่เป็นนามธรรมซึ่งไม่จัดชิดเลย นั่นคือความเสี่ยงใหญ่ที่ผู้คนเรียกร้อง”

Emmet: แต่คุณไม่ได้ตอบคำถามของฉันจริงๆ เรารู้หรือไม่ว่าส่วนไหนของกระบวนการนั้นที่ทำให้มันทำงานได้ดี? หรือเรายังคง "ฉันหมุนโทรศัพท์ที่นี่และดูเหมือนว่าจะทำงานได้ดีขึ้นด้วยเหตุผลบางอย่าง"

Fergal: ถ้าคุณไม่ปรับคำสั่ง มันจะปรับให้ตรงน้อยลงมาก คุณจะแบบว่า “เฮ้ นางแบบ หน้าตาดีแบบนี้นี่เอง” และทุกครั้งที่คุณสร้างสิ่งที่ใกล้เคียงกับความดี คุณจะได้รับกำลังใจให้ทำสิ่งนั้นมากขึ้น แต่ละครั้งที่คุณสร้างสิ่งที่ใกล้เคียงกับความเลวร้าย คุณจะได้รับกำลังใจให้ทำสิ่งนั้นน้อยลง น้ำหนักทั้งหมดของคุณจะถูกปรับไปในทิศทางที่ดีเล็กน้อย แต่ฉันเดาว่าคำวิจารณ์คือ "คุณไม่รู้หรอกว่าเกิดอะไรขึ้นภายใต้ประทุน และมีวิธีที่อาจผิดพลาดได้" คุณสามารถลงเอยด้วยการฝึกฝนบางสิ่งให้ดูดีในแนวเดียวกัน จากนั้น ข้างใต้ อาจมีเลเยอร์อื่นของสิ่งที่เป็นนามธรรมซึ่งไม่จัดชิดเลย นั่นคือความเสี่ยงใหญ่ที่ผู้คนเรียกร้อง

คนอื่นจะพูดว่า “เรายังคงไล่ระดับสีลงมา ไม่สามารถตัดสินใจอะไรได้เลย มันจะสอดคล้องกัน” แต่ฉันคิดว่ามีการก้าวกระโดดเล็กน้อยที่นั่น มันไม่ใช่ระบบที่คุณพิสูจน์ทางคณิตศาสตร์ว่าจะทำ X, Y และ Z และสร้างจากตำแหน่งที่แข็งแกร่งขึ้นไปยังจุดแข็งไปสู่จุดแข็ง เป็นระบบกล่องดำที่คุณปรับแต่งและฝึกฝน

เอ็มเม็ท: ถ้าฉันพยายามทำตัวไร้ค่าต่อตำแหน่งนั้น มันก็เหมือนกับการกักตุนอาวุธนิวเคลียร์และพูดว่า “แต่เราทำมันอย่างระมัดระวังมาก ดังนั้นเราจะไม่กดปุ่มที่ทำให้มันดับโดย อุบัติเหตุ." แต่ด้วยระยะเวลาที่ยาวนานพอ และเทคโนโลยีที่เข้าถึงได้นั้น เราไม่สามารถปิดเรื่องนี้ได้อย่างแน่นอน เราสามารถมีบริษัทและบุคคลจำนวนมากที่ทำหน้าที่อย่างมีความรับผิดชอบ แต่จะไม่ทำอะไรเลยเพื่อปกป้องเราจากแอปพลิเคชันที่เลวร้ายที่สุด อะไรคือสถานการณ์ที่ผิดพลาด? ข้อโต้แย้งทางศีลธรรมประการหนึ่งสำหรับการทำงานโดยตรงในเรื่องนี้ แม้จะมีอันตรายที่เกี่ยวข้อง แต่ก็เหมือนกับรัฐบาลเผด็จการหรือองค์กรลับที่ไหนสักแห่งที่ทำสิ่งนี้ในเวอร์ชันที่ไม่ดี

Fergal: เมื่อถึงจุดหนึ่ง มันจะต้องเกิดขึ้นแน่นอน ฉันไม่คิดว่าเรามาถึงจุดนี้ ฉันไม่คิดว่าเราอยู่ในจุดที่คุณสามารถสร้างหน่วยสืบราชการลับได้อย่างแน่นอน แต่ถ้าเราไปถึงจุดนั้น เป็นที่ชัดเจนว่าคุณสามารถสร้างมันได้ ประชาชน รัฐบาล และกองทัพจะสร้างมันขึ้นมา พวกเขามักจะทำเพราะมันอาจมีประโยชน์ในการใช้งานทางทหารทุกประเภทใช่ไหม? ใช่ฉันคิดว่ามันจะเกิดขึ้น วาทกรรมในที่นี้พูดถึงเรื่องต่างๆ เช่น อาวุธนิวเคลียร์และสำนักงานพลังงานปรมาณูระหว่างประเทศ ซึ่งมีกฎระเบียบอยู่รูปแบบหนึ่ง และถ้ามันเป็นแบบนี้ ถ้าเราไม่ตกใจ ถ้ามันไม่เป็นแบบ "โอ้ กลับกลายเป็นว่าความเฉลียวฉลาดไม่เข้ากับการฝึกแบบปัจจุบัน" นั่นอาจเกิดขึ้นได้ หากไม่เกิดขึ้น สิ่งที่ผู้คนพูดถึงคือการติดตามกราฟิกการ์ดและ GPU และสิ่งต่างๆ แต่นั่นก็มีปัญหาเช่นกัน สันนิษฐานว่าจะคงอยู่เพียงช่วงระยะเวลาหนึ่งเท่านั้น

แคร็กการทดสอบทัวริง

Emmet: กลับไปที่เรื่องข่าวกรองกันเถอะ ฉันรู้ว่าคุณมีอารมณ์ร้อนที่นี่ เรามี AI จำนวนมากที่ขี้ระแวงหรือหวาดกลัว ขึ้นอยู่กับประเภท จากนั้นคุณก็มีผู้คนจากทั่วทุกสารทิศ: Noam Chomsky นักภาษาศาสตร์ที่มีชื่อเสียง, Ted Chiang หนึ่งในนักเขียนไซไฟคนโปรดของฉัน ผู้เขียนบทความนี้เกี่ยวกับ JPEG ที่พร่ามัวของเว็บ โดยพื้นฐานแล้วบอกว่านี่ไม่ใช่ ความฉลาด – มันเป็นกลอุบายในห้องนั่งเล่นแบบสุ่ม เป็นเพียงกลอุบายในห้องนั่งเล่นที่ดีจริงๆ ที่ทำให้มันดูฉลาดในแบบที่เรามองว่าฉลาด

Fergal: ฉันมีความมั่นใจปานกลางถึงสูงว่า JPEG ที่พร่ามัวของเว็บนั้นไม่ถูกต้อง และฉันออกหมัดนิดหน่อย – ฉันมีความมั่นใจสูงว่านั่นผิด นั่นคือข้อโต้แย้งที่ว่าทั้งหมดที่ทำคือบีบอัดเว็บ และคุณจะได้รับเวอร์ชันบีบอัดบางส่วน และเหตุผลเดียวที่ฉันไม่บอกว่ามันผิดเพราะการบีบบางอย่างลงอาจทำให้เกิดความเฉลียวฉลาดได้ ความสามารถในการบีบอัดสิ่งต่าง ๆ สามารถวัดความฉลาดได้ เพราะเพียงแค่บีบอัดและทำนายโทเค็นถัดไป คุณก็ทำนายได้ว่าจะเกิดอะไรขึ้นต่อไปในโลก ถ้าถูกก็คือถูกในแบบที่ไม่ได้หมายความ

“แม้ว่าเรากำลังสนทนากันแบบคาดเดา แต่ดูเหมือนเป็นช่วงเวลาที่เลวร้ายอย่างยิ่งที่จะคาดการณ์อย่างยิ่งใหญ่เกี่ยวกับข้อจำกัดของสิ่งนี้”

หากคุณใช้ GPT-4 อย่างน้อยจะให้ผลลัพธ์ที่ดูชาญฉลาดซึ่งดูเหมือนว่าจะแสดงเหตุผลนอกตัวอย่าง คุณสามารถผลักดันให้พิจารณาสิ่งใหม่ๆ ที่ไม่มีในข้อมูลการฝึกอบรมหรือในเรื่องราวไซไฟใดๆ ที่ใครๆ เคยอ่านมาก่อน และมันก็ทำได้ดีทีเดียว มันอาจจะทำงานได้ไม่ดีเท่ามนุษย์ที่ดีจริงๆ แต่เป็นสิ่งที่ถ้าไม่ใช้เหตุผล ฉันก็ไม่รู้ว่าการให้เหตุผลหมายถึงอะไร

Emmet: และคุณมีบล็อกโพสต์ที่คุณแสดงตัวอย่างที่เฉพาะเจาะจง

Fergal: โพสต์ที่ฉันเขียนเมื่อสุดสัปดาห์เพราะฉันรู้สึกผิดหวัง มันยากที่จะแน่ใจใช่ไหม? แต่ผู้คนจำนวนมากรวมถึงผู้เชี่ยวชาญด้าน AI กำลังเพิกเฉยต่อสิ่งนี้โดยสิ้นเชิง พวกเขาเป็นแบบว่า “โอ้ สิ่งนี้ไม่เข้าใจอะไรเลย มันเป็นเพียงการทำนายโทเค็นถัดไป” นั่นเป็นสิ่งที่ถูกต้องเสมอสำหรับ AI มานานหลายทศวรรษ แต่ตอนนี้น้ำเป็นโคลนและทุกคนควรรับทราบแทนที่จะพูดว่าไม่เข้าใจอะไรเลย

Emmet: แม้ว่าเรากำลังมีการสนทนาเชิงคาดเดานี้และเอาตัวเองเข้าไปพัวพัน แต่ดูเหมือนเป็นช่วงเวลาที่เลวร้ายอย่างยิ่งในการคาดเดาอย่างใหญ่หลวงเกี่ยวกับข้อจำกัดของสิ่งนี้ ฉันคิดว่า JPEG ที่พร่ามัวของบทความบนเว็บคือเดือนมีนาคมหรือบางอย่าง และฉันสงสัยว่า GPT-4 นั้นถูกหักล้างไปแล้วหรือไม่

เฟอร์กัล: ฉันคิดอย่างนั้น และมีตำแหน่งต่าง ๆ มากมายที่นี่ที่มีความสำคัญ มี JPEG ที่พร่ามัวของเว็บซึ่งฉันคิดว่าหักล้างเร็วมาก และมันยากที่จะพิสูจน์สิ่งนี้ แต่ทั้งหมดที่คุณทำได้คือสร้างหลักฐานมากมาย เพราะคุณทำไม่ได้... มีแนวคิดเกี่ยวกับซอมบี้เชิงปรัชญาหรือลัทธิสังคมนิยมซึ่งฉันไม่รู้ว่าคุณเป็นคนคิดมาก เท่าที่ฉันรู้ ในหัวของคุณคือตารางการค้นหาขนาดยักษ์

“สิ่งที่คุณทำได้คือพูดว่า 'ดูสิ สิ่งนี้ทำได้ดีมากเมื่อฉันถามอะไรแปลกๆ ที่ฉันเริ่มเชื่อว่ามันมีเหตุผล' สำหรับฉันแล้ว GPT-4 อยู่เหนือขีดจำกัดนั้น”

ฉันมีการรับรู้ความรู้สึกตามอัตวิสัย และคุณสามารถเข้าใจได้ว่ามันจริงหรือไม่ แต่ไม่ว่าด้วยวิธีใด ฉันไม่รู้สึกว่าตัวเองเป็นตารางการค้นหาขนาดใหญ่ แต่ฉันไม่รู้เกี่ยวกับพวกคุณที่เหลือ มันยากมากที่จะพิสูจน์ว่า คุณสามารถขอให้ใครสักคนพิสูจน์ว่าพวกเขาไม่ใช่ตารางค้นหา และสิ่งที่คุณต้องทำคือทดสอบพวกเขาในลักษณะพฤติกรรมนี้ – วิธีเดียวกับที่เราทดสอบ GPT-4

Alan Turing และเอกสารทดสอบ Turing ของเขาเน้นย้ำในเรื่องนี้และแนวคิดที่ว่าการทดสอบพฤติกรรมเป็นสิ่งที่ดีที่สุดที่คุณสามารถทำได้ และเมื่อคุณทำแบบทดสอบพฤติกรรมกับแบบจำลองเหล่านี้ ดูเหมือนว่าพวกเขาจะทำได้ดีในสิ่งที่เรียกว่าการให้เหตุผล แม้ว่าจะไม่อยู่ในกลุ่มตัวอย่างเลยก็ตาม คุณไม่สามารถแน่ใจได้ด้วยการทดสอบพฤติกรรม เพราะตารางค้นหาที่ใหญ่พอ ทุกสิ่งที่เป็นไปได้ที่คุณถามได้และคำตอบที่เป็นไปได้ทั้งหมดจะหลอกคุณ สิ่งที่คุณทำได้คือพูดว่า “ดูสิ สิ่งนี้ทำได้ดีมากเมื่อฉันถามอะไรแปลกๆ ที่ฉันเริ่มมั่นใจว่ามันมีเหตุผล สำหรับฉันแล้ว GPT-4 อยู่เหนือขีดจำกัดนั้น บางที ในอนาคต ใครบางคนอาจมีทฤษฎีความฉลาด และพวกเขาจะสามารถตรวจสอบน้ำหนักของเครือข่ายและพูดว่า "โอ้ นี่คือที่มาของโมดูลการให้เหตุผล เรายังไม่ได้อยู่ที่นั่น”

Emmet: ดูเหมือนว่าเราจะรีบผ่านการทดสอบทัวริงไปแล้ว ฉันคิดว่าผู้คนจะพูดและแก้ไขฉันถ้าฉันผิด ว่าการทดสอบของทัวริงน่าจะผ่านแล้ว และแน่นอนในช่วงหกเดือนที่ผ่านมา คุณจะเห็นด้วยกับสิ่งนั้นไหม หรือฉันเข้าใจผิดจริง ๆ ที่นั่น

เฟอร์กัล: ฉันไม่รู้ ฉันบังเอิญอ่านกระดาษเกมเลียนแบบอย่างรวดเร็วอีกครั้งเมื่อเร็วๆ นี้ และจริงๆ แล้ว ในการทดสอบ เขาพูดถึงผู้ซักถามโดยเฉลี่ยใช้เวลาห้านาที และด้วยสูตรนั้น ฉันว่าน่าจะใกล้จะผ่านแล้ว

เอ็มเม็ท: ฉันคงคิดว่ามันผ่านไปแล้วด้วยสีที่บินได้ในขั้นตอนนี้ ใช่ไหม

“เมื่อฉันดูกระดาษต้นฉบับของทัวริง ฉันรู้สึกว่ามันถูกส่งผ่านจิตวิญญาณของสูตรดั้งเดิมนั้น”

เฟอร์กัล: ฉันไม่รู้ ถ้าคุณให้ฉันนั่งลงต่อหน้า GPT-4 และมนุษย์ ฉันจะสามารถเรียนรู้กลอุบายเพื่อผลักดันมันไปยังจุดที่อ่อนแอ จากนั้นจะสามารถตรวจจับสัญญาณของมันได้ และฉันน่าจะแยกแยะได้ดี ฉันคาดว่าคนส่วนใหญ่ที่จะใช้เวลากับมันอาจพัฒนากลยุทธ์ได้

Emmet: ฉันคิดว่าคุณต้องมีตา คุณทำงานกับมันทุกวัน ตัวอย่างเช่น เมื่อใช้ Midjourney V5 เรามาถึงขั้นตอนนี้ ซึ่งสำหรับคนส่วนใหญ่แล้ว การบอกเล่าไม่ได้อยู่ตรงนั้นอีกต่อไป พวกเขาแก้ไขนิ้ว ความเบลอ รูปร่างแปลกๆ ที่ด้านหลัง หากคุณรู้ว่าต้องมองหาอะไร คุณยังสามารถมองเห็นขนเล็กน้อยในจุดที่ควรจะอยู่ แต่ฉันคิดว่าคุณต้องมีนิติวิทยาศาสตร์ค่อนข้างมากในขั้นตอนนี้

Fergal: ฉันบอกว่าเราค่อนข้างโอเคกับ GPT-4 ในการตรวจสอบห้านาทีจากคนทั่วไปที่ถูกดึงออกจากถนน ฉันคิดว่ามันน่าจะผ่าน เมื่อฉันดูกระดาษต้นฉบับของทัวริง ฉันรู้สึกว่ามันถูกส่งผ่านจิตวิญญาณของสูตรดั้งเดิมนั้น

Emmet: ในขั้นตอนนี้อาจไม่ใช่สำหรับการสังเคราะห์เสียง และแน่นอนว่าไม่ใช่เพลงหรือภาพยนตร์ มันน่าสนใจที่จะดูว่าสิ่งนี้ดำเนินไปอย่างไรด้วยความเร็วที่แตกต่างกัน เป็นเพราะรูปแบบการฝึกอบรมหรือคุณคิดว่าสื่อต่าง ๆ มีข้อจำกัดพื้นฐาน?

Fergal: ฉันว่าน่าจะมาจากโมเดลการฝึกซ้อม ฉันไม่รู้สึกว่ามีเหตุผลพื้นฐานว่าทำไมจึงไม่สามารถสังเคราะห์วิดีโอที่ดีได้ทันเวลา

Emmet: แม้ว่าอุปสรรคในการหลอกมนุษย์อาจจะสูงกว่ามากด้วยวิดีโอบางอย่าง แต่อยู่ที่การปรับตัวให้เข้ากับการเคลื่อนไหวทางชีวภาพของเราและอะไรทำนองนั้น ง่ายกว่ามากในการตรวจจับของปลอม

Fergal: สิงโตในพุ่มไม้กำลังเข้ามาหาคุณ

เอ็มเม็ท: จิตวิทยามูลค่านับพันปีตั้งใจให้เราวิ่งในเวลาที่เราควรจะวิ่ง

การนำทาง S-curve

Emmet: ผู้คนมักพูดถึง S-curve ของเทคโนโลยี มีการเริ่มขึ้นหรือเติบโตของเทคโนโลยีอย่างช้าๆ แต่หลังจากนั้นก็จะลดลงอย่างรวดเร็ว โทรศัพท์นั้นยอดเยี่ยมอย่างน่าอัศจรรย์ มีการปรับปรุงปีต่อปีเป็นเวลาสองสามปี แต่โทรศัพท์ในปีนี้ก็เหมือนกับปีที่แล้วเพราะ S-curve ลดลง เราอยู่ตรงไหนของ S-curve กับเทคโนโลยีนี้ คุณควรมองหาอะไรเพื่อให้รู้สึกว่าเราอยู่ที่ไหน

Fergal: ใช่ มันเป็นไปไม่ได้ที่จะรู้แน่ชัด และเราต้องโอเคกับมัน เรารู้ว่าจะต้องมีเงินและทรัพยากรมากมายที่จะหลั่งไหลเข้ามาในพื้นที่นี้ แบบจำลองภาษาขนาดใหญ่ ไม่ว่าพวกเขาจะอยู่บนเส้นทางสู่ความฉลาดหลักแหลมหรือไม่ก็ตาม ไม่ว่าจะทำได้จริงหรือไม่ก็ตาม ล้วนมีประโยชน์ในเชิงอุตสาหกรรมในรูปแบบปัจจุบัน และน่าจะมีอีกหลายชั่วอายุคนที่จะเป็นประโยชน์ในเชิงอุตสาหกรรมโดยไม่ต้องแตะต้องสิ่งที่เป็นอันตราย เราควรไปเปลี่ยนสิ่งเหล่านี้ให้เป็นผลิตภัณฑ์ที่ทำให้มนุษย์มีประสิทธิภาพมากขึ้น ขจัดความน่าเบื่อ และช่วยให้เราทำงานเสร็จได้มากขึ้น และฉันคิดว่าเรากำลังเห็นสิ่งนั้น

“มีลูปป้อนกลับที่ซับซ้อนและทับซ้อนกันเหล่านี้ ดังนั้นฉันคงแปลกใจมากถ้ามันหยุดลงในเร็วๆ นี้ ฉันคิดว่ามันจะเร่งขึ้น”

เราอยู่ที่ไหน ดูเหมือนว่าผู้คนจะฝึกโมเดลที่ใหญ่กว่าและดีกว่า GPT-4 มากขึ้น เนื่องจากเงินจำนวนมากจะไหลเข้ามาในพื้นที่นี้ จึงรู้สึกว่าเป็นไปได้มากที่ผู้คนจะเก่งขึ้นในการสร้างโมเดลที่เล็กลงและมีประสิทธิภาพมากขึ้นซึ่งทำสิ่งที่น่าประทับใจจริงๆ และจะง่ายขึ้นในการผลิตและสร้างผลิตภัณฑ์เจ๋งๆ จากเทคโนโลยีทั้งหมดนี้ ฉันมีความมั่นใจสูงมากที่จะมาถึงในอีกไม่กี่ปีข้างหน้า ยิ่งไปกว่านั้น เราตีผลตอบแทนที่ลดลงหรือไม่? เป็นไปได้ แต่ฉันจะบอกว่า S-curve ที่เราได้รับคือฟังก์ชันที่ซับซ้อนของสิ่งต่างๆ มากมาย

เราจะลงเอยด้วยการสร้าง GPU มากขึ้น และวิดีโอก็จะเพิ่มมากขึ้น จริงไหม? จากนั้น มันจะดีขึ้นเรื่อยๆ และจะถูกลงเมื่อขยายขนาดออก และยังมีนักศึกษาวิจัยจำนวนมากที่ค้นหาอัลกอริทึมที่ดีกว่าเพื่อฝึกโครงข่ายประสาทเทียมขนาดใหญ่ ที่กำลังจะดีขึ้น ผู้คนจะใช้โมเดลที่ทรงพลังเพื่อฝึกโมเดลที่เล็กกว่าและเร็วกว่า มีลูปป้อนกลับที่ซับซ้อนและทับซ้อนกันเหล่านี้ ดังนั้นฉันจะแปลกใจจริงๆ ถ้ามันหยุดลงในเร็วๆ นี้ ฉันคิดว่ามันจะเร่งขึ้น

ชั่งน้ำหนักกับสิ่งนั้นคือบางสิ่งจะยากขึ้นเมื่อเวลาผ่านไป หากต้องการหายาปฏิชีวนะเพิ่ม คุณต้องหาตัวที่หาได้ง่ายก่อน และเมื่อเวลาผ่านไป การหาตัวใหม่จะยากขึ้นเรื่อยๆ เป็นไปได้ที่เราจะได้รับกำไรง่ายๆ ก่อน จากนั้นคุณก็บรรลุกฎการปรับมาตราส่วน และอื่นๆ Open AI กล่าวว่าพวกเขาไม่คิดว่าเส้นทางสู่ความฉลาดมากขึ้นคือการฝึกโมเดลที่ใหญ่ขึ้นเรื่อย ๆ แต่ฉันไม่เชื่อ บางทีเราอาจจะถึงขีดจำกัดที่นี่ แต่ฉันพนันได้เลยว่าเราจะได้รับข้อมูลเชิงลึกมากขึ้นด้วยโมเดลที่ใหญ่กว่า

“ฉันคิดว่ามันจะใหญ่กว่าอินเทอร์เน็ต อาจใหญ่เท่ากับการปฏิวัติอุตสาหกรรมหากไปไกลพอ”

Emmet: เหนือสิ่งอื่นใดจากตัวแปรทั้งหมดที่คุณเพิ่งอธิบายไป สิ่งที่ทำให้ฉันประหลาดใจในครั้งนี้คือความเร็วและสเกล สิ่งนี้แตกต่างอย่างสิ้นเชิงในแง่ของความรวดเร็วในการรวมเข้ากับผลิตภัณฑ์และชีวิตของเรา Bill Gates had this post recently where he said it's the biggest deal in technology since the microprocessor in the '70s. And it makes you think. When he saw that microprocessor, it was him and a hundred guys at the Homebrew Computer Club in some meetup or something, and they got access to it, played with it, and gradually rolled it out. One of the things I thought was dizzying this time was, I guess, in March, when OpenAI started releasing APIs, and people started to hack on top of it.

Fergal: March for GPT-4 and stuff?

Emmet: Right, exactly. Millions of people got to hack on this immediately, and I think it's going to be a very different dynamic. The amount of creativity that can be applied to the raw technology is orders of magnitude bigger than we've ever had before, and it's just going to add to the complete lack of predictability here.

Fergal: I think this is a huge technology revolution. I said this back in my first podcast with Des after ChatGPT came out, and I think it's going to be bigger than the internet. Maybe as big as the industrial revolution if it goes far enough. But this is the first one of this magnitude we've had in a while. When the internet came, you had this long, slow deployment, you had to run fiber around the world, you had to figure out how do you get this to last mile to everybody. Now-

Emmet: The infrastructure for delivery is there.

Fergal: And so, what needs to happen at scale is GPUs. We probably need to build a lot of GPUs to be able to run inference at scale. We need to build products, and the products need to be adaptive. But the product development loop can be pretty fast, and the rest of it seems to be bottlenecked on scaling GPUs and [inaudible 00:43:46] economics. And I think the [inaudible 00:43:48] economics are going to get really good, really fast. Even GPT-3.5 Turbo is not expensive.

Emmet: Does the software get cheap fast enough for there to be no bottleneck around GPUs?

“There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here”

Fergal: Not at the moment. GPT-4 is a very expensive model and is absolutely bottlenecked on GPUs. But surely that will change. I've no private information here, but I suspect that GPT-3.5 Turbo is a distilled version of davinci-003 or something like that. It's cheaper to run. I bet it's cheaper on the backend too. Who knows, maybe they'll produce a distilled-down version of GPT-4 that is 10 times faster. That could happen anytime, for all I know.

Emmet: For the time being, though, the cost aspect is also a thing for product people to consider. There are some fundamental limitations based on the costs of providing this tech that I think a lot of businesses are also looking at it and going, “What's our model? What's our customer acquisition cost? How do we monetize usage of our product?” because there is probably a set of products out there where the use cases are ideally suited but the business model around the product is not. So there are a lot of interesting product challenges.

Fergal: Totally. And this was the case in the past. Once upon a time, Hotmail gave you a limit to the number of megabytes of email storage you would have. When Gmail came along, it was effectively unlimited because storage got cheap in the interim. There have been lots of products in the past that were bottlenecked on hardware costs, and then that bottleneck went away. I expect we're going to see something like that here. We're in the early days here. But a lot of the time, they're cheap compared to a human doing the same type of task. And so it's like, “Is it valuable enough? Is it something you wouldn't have a human do? Is it valuable enough to have a machine do it?” And for a lot of stuff, the answer is yes. I think we're going to see really fast adoption here.

Frictionless interfaces

Emmet: You talked about Gmail and the email limit, and famously, it was launched on April Fool's Day, and was it an April Fool's joke that they were giving you a gigabyte of storage. All of these new technical capabilities unlocked new interface possibilities. Now that you have a gigabyte, you don't have to archive or folder, you can just search, and everything can go in threads, so it changes the nature of the product that's possible.

AI is going to open up a whole bunch of new products. In the early days, we'll probably see a bunch of products retrofitting themselves, and we did this as well. “What's the easiest opportunity? We've got this often-used text box in our product. Let's add the ability to summarize, rephrase, shorten,” blah, blah, blah. We added that, and our customers loved it because it's a great use case when you're talking to your customers. Every text box on the internet that needs one will probably have one soon.

“I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces”

What are the next-level things? From an interface point of view, what will be possible? You're talking about a lot of money flooding in that's going to enable new types of products. We've been talking about conversational commerce, and at Intercom, we have spent a lot of time thinking about bots. Aside from the raw technical capabilities, it'll open up a whole offshoot of the evolution of software because you can build very different types of software with this now.

Fergal: I think that change could come quite fast. As a thought experiment, if you had an intelligent human whom you work with a lot who knows you and your preferences, and you were interfacing with them, they were driving the computer, and you were telling them what to do, what would that look like? A lot of the commands you would give would be verbal. Sometimes, you might reach down and say, “Oh, let me just take over the mouse from you,” but a lot of what you'd give would be high-level and verbal. But then you'd look at the screen to see the output. If someone has a bar chart with a bunch of data, you don't want to describe that verbally – you want to see that visually.

I think we're going to end up in a future where a lot of the input to the computer is verbal, and a lot of the output is going to be customized on the fly. It will probably be text because it's really fast, but I personally feel like user interfaces are likely to go away. Designers won't design user interfaces – AI agents will design user interfaces. If the agent feels you need to see a bar chart to make sense of the data, it'll render a bar chart. Otherwise, it'll render stuff in a very ad-hoc way. You basically get an interface customized to the task you want and what you're familiar with rather than something designed by someone.

You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.

Emmet: That's very plausible. We imagine that everything will become text-first now, and in fact, it means, “You'll have everything you have today plus a whole other set of things that are now text-first as well.” I think it'll be largely additive rather than upending things.

Fergal: I don't agree. I think there's going to be an upending moment here. I think every complex piece of software is going to have some sort of freeform texting where you describe your task, but I think it'll change. You will probably end up with an agent that navigates the software for you, and that's going to be better than navigating the software for 99% of the use cases.

Emmet: That's super different from the LLMs we're used to working with today in an important way. Today you talk to them, they give you text back, and that's it, but you're describing a world that maybe we're just starting to creep into with ChatGPT plug-ins where they're starting to act on your behalf.

Fergal: I think it's wrong to say you put text into them, and they give you text back. The really scrappy interface to ChatGPT and GPT-4 looks like that due to an accident of history. And on a technological level, they do, in fact, do text completion, but that's going to disappear pretty fast. That's not how we use Fin. In Fin, the LLM is a building block deep down. You talk to a bot, sometimes you click buttons together to do stuff, and you're going to see that again and again.

Initially, the fastest way to integrate LMMs is text input/text output, but they're just going to become a building block. Medium-term, LLMs are an intelligent building block that people learn to use to get software to do intelligent things. Long-term, you're probably going to end up with an intelligent agent; your browser is probably going to turn into an intelligent agent.

Emmet: And the agent is clicking on coordinates on the screen for you.

Fergal: Probably initially, for backward compatibility. But then, I think, you just build APIs. Why would you build websites?

Emmet: That's what the logical part of my brain thinks, but most of the software we build today is built using HTML, which was not designed. It's also an accident of history that we're building software applications using a markup language with loads of other stuff sprinkled on top. Maybe we'll just end up building what we have.

Fergal: I'm sure it'll be there as some compatibility or some intermediate layer.

Emmet: Or a fallback or something like that. What we're talking about there, to be clear, is looking at a picture of what's on your screen, finding the text that says, “click here,” and simulating moving your mouse to actually click on the “click here” for you? Is that what you're talking about when you mean an agent acting in the browser?

“We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task”

Fergal: No. And again, this is speculative, but imagine there's a legacy government website you want to get something done on. For example, you need to update your bank account details. What you do is say to your agent on your phone or desktop or browser, “Hey, I need to update my bank account on the government's social security website.” Your agent goes, “Okay, done.” In the background, your little intelligence agent went and drove the website; it didn't show that to you. After a certain point, people working in the government are going to be like, “Well, why do we need to keep building the websites? We just need to build the API.”

Emmet: Right. LLMs are a pretty awesome API to an API, in a sense. You can layer it on top, and it's just a more human-readable API to any machine-readable API.

Fergal: Yeah, exactly, but I'd phrase it differently. The intelligence we happen to have comes in the form of LLMs at the moment, but that's going to get abstracted away. We won't really care what it's like down underneath the hood. We just know we can ask for what we want, and it'll complete the task. If you say to it, “What was the unemployment rate in Ireland over the last 10 years for people in their 20s?” It'll go to the Central Statistics Office website, download the data, parse it, render a graph, and so on.

I have a talk coming up, and I needed a graph. I spent time on Google trying to find the exact one I had in my head, writing my search query in Google, and after two minutes, I just couldn't find the right graph. So, I went to GPT and said, “Generate me the following graph.” It generated the plug-in code, and I just put it into my notebook. I copied and pasted my graph and put it in my presentation. The fastest way for me to get the graph I wanted was to have an intelligence system generate the code. That was faster than trying to find it on Google. There's a lot of interface friction, but that's going to go away, and you're going to end up with a really fast agent that accomplishes tasks. Once you have that, it's going to eat your current software stack.

Emmet: I'm understanding what you're saying a little bit better, but I don't see all software being reduced to a text input box because that's the wrong input and output modality for a lot of stuff, including what you just described. A good example is all the image generation stuff, which is loads of fun to play with, but you've got to go onto a Discord bot to engage with Midjourney and hack it by writing F stop 1.4, hyper-realistic… No, this is fundamentally a visual thing I'm trying to create. I want a more tactile UI. I want more knobs and dials. What are the properties of it that I can dial up and down and play with rather than feeling my way blind in effectively a command line interface? Because the lack of affordances in a command line interface means it's often not the best UI.

เฟอร์กัล: แต่ในอนาคต อาจจะมีบางสิ่งที่คุณพูดกับตัวแทนของคุณ เช่น “เฮ้ ฉันอยากแก้ไขรูปภาพที่ฉันถ่ายเมื่อวาน” และรู้จักคุณและระดับความซับซ้อนของคุณ มันรู้ว่าเมื่อคุณต้องการแก้ไขรูปภาพ คุณกำลังมองหาฟิลเตอร์สี่ตัวและเครื่องมือครอบตัด หรืออีกทางหนึ่ง มันรู้ว่าคุณต้องการทำซุปเปอร์โปรซูมเมอร์ มันไปและค้นหาอินเทอร์เฟซที่ดีที่สุดสำหรับแต่ละอินเทอร์เฟซในไลบรารีรูปแบบของมันและแสดงอินเทอร์เฟซนั้นให้คุณ

“มันทั้งหมดขึ้นอยู่กับงานที่คุณกำลังทำอยู่ หากคุณเป็นนักบิน คุณจะไม่อยากพูดว่า 'ได้เวลาเครื่องลงจอดแล้ว! เฮ้ LLM รวบรวมส่วนต่อประสานให้ฉันทำโดยอัตโนมัติ '”

Emmet: แล้วคุณก็พูดว่า “อันที่จริง ฉันอยากให้มันเป็นมืออาชีพกว่านี้หน่อย” และพูดว่า “ตกลง ฉันจะให้ UI เวอร์ชันโปรแก่คุณ” และมันแสดงผลแบบไดนามิก

Fergal: ดูสิ จะมีงานบางอย่างที่คุณทำโดยที่คุณไม่ต้องการเรียนรู้การใช้อินเทอร์เฟซ Des กำลังพูดถึงเรื่องนี้เมื่อเร็วๆ นี้ในพอดคาสต์อื่น คุณต้องอัปเดตเวลาพักร้อนของคุณในวันทำงาน และคุณไม่ต้องการเรียนรู้อินเทอร์เฟซสำหรับสิ่งนั้น คุณเพียงแค่ต้องการให้งานเสร็จสมบูรณ์ จะมีอย่างอื่นอีก เช่น คุณเป็นโปรแกรมเมอร์มืออาชีพ และฉันต้องเรียนรู้การใช้ IDE นักออกแบบบางคนคิดอย่างละเอียดถี่ถ้วนเกี่ยวกับสิ่งที่ฉันต้องการและจำเป็นต้องทำ และอาจมีการปรับแต่งเล็กน้อยในนั้น แต่ก็ยังมีอินเทอร์เฟซที่ออกแบบมาอย่างดีซึ่งฉันจะเรียนรู้การใช้งาน ฉันคิดว่าอินเทอร์เฟซสำหรับอันเดิมสำหรับงานที่ฉันต้องการทำกำลังจะหายไป หรือส่วนใหญ่จะถูกแสดงผลแบบเฉพาะกิจ อย่างหลัง ใช่ พวกเขาจะปรับตัวได้

Emmet: ฉันเห็นด้วยกับทุกสิ่งที่คุณพูด มันยังเกิดขึ้นกับฉันเล็กน้อยเพิ่มเติม ทั้งหมดจะขึ้นอยู่กับงานที่คุณกำลังทำอยู่ หากคุณเป็นนักบิน คุณจะไม่อยากไป “ได้เวลานำเครื่องลงจอดแล้ว! เฮ้ LLM รวบรวมส่วนต่อประสานให้ฉันทำโดยอัตโนมัติ” มันจะต้องมีกฎระเบียบและอะไรทำนองนั้น ฉันแน่ใจ แต่นั่นสะท้อนถึงความแตกต่างที่สำคัญประการหนึ่ง ซึ่งเกิดจากการทำงานกับคอมพิวเตอร์ ซึ่งเราคิดอยู่เสมอว่าเป็นเครื่องความจริงที่มีการกำหนดค่าสูง เลขฐานสอง เปิด/ปิด ซึ่งขับเคลื่อนด้วยสวิตช์ และในทันใด ธรรมชาติของ ที่เปลี่ยนไปมาก และนั่นคือการเปลี่ยนแปลงครั้งใหญ่เช่นเดียวกับทุกสิ่งที่เรากำลังอธิบาย – สิ่งที่คุณคาดหวังได้ วิธีที่คุณคาดหวังว่ามันจะทำงานให้คุณเป็นการส่วนตัว และปริมาณความสามารถในการใช้งานหรือการควบคุมที่คุณมีต่อมัน ฉันคิดว่าเราจะเริ่มเห็นความแตกต่างในการทดลองที่น่าตื่นเต้นมากขึ้น และระดับของการปรับแต่งที่เรามีในปัจจุบัน ซึ่งคุณสามารถเปลี่ยนวอลเปเปอร์หรือขนาดฟอนต์ขนาดใดก็ได้ อาจจะดูซีดเซียวเมื่อเปรียบเทียบกัน

สู่ศูนย์กลางของวงกลม

Emmet: คุณยังพูดบางอย่างที่น่าสนใจที่ฉันต้องการกลับมา ลองนึกภาพนักออกแบบที่ส่วนใหญ่รวบรวมจากห้องสมุด งานออกแบบส่วนต่อประสานกับผู้ใช้นั้นน่าสนใจเพราะเราได้เตรียมระบบการออกแบบไว้แล้ว ระบบการออกแบบเป็นไลบรารีรูปแบบของส่วนประกอบ หากคุณกำลังสร้างผลิตภัณฑ์ขนาดใหญ่ คุณต้องการให้สอดคล้องกัน และต้องการประกอบเข้าด้วยกันอย่างรวดเร็ว รากฐานจำนวนมากที่เราได้วางและระบบที่เราสร้างขึ้น แม้กระทั่งทีมออกแบบและทีมวิศวกรรมก็เช่นกัน การสร้างส่วนประกอบที่สามารถนำกลับมาใช้ใหม่ได้อย่างรวดเร็วโดยระบบเหล่านี้ ต่อความสามารถของเราในการสร้างเครื่องมือเหล่านี้อย่างรวดเร็ว สิ่งที่คุณอธิบายคือสิ่งที่นำระบบการออกแบบของคุณไปใช้และสร้าง UI จากมัน และดูเหมือนว่าจะอยู่ห่างออกไปไม่ไกล

Fergal: หรืออาจใช้ระบบการออกแบบโอเพ่นซอร์สมาตรฐานและสร้างเครื่องมือจากมัน ฉันไม่รู้ว่าสิ่งนี้จะเกิดขึ้นในระดับบริษัทแต่ละแห่งหรือจะเกิดขึ้นในระดับแนวนอนกว้างๆ

Emmet: ใช่ นั่นคงจะน่าเบื่อมาก มันคงเป็นเรื่องน่าสลดใจ ก่อนหน้า iOS 7 เรามีสเกโอมอร์ฟิซึมและทุกอย่าง จากนั้นพวกเขาก็เปลี่ยนมาใช้การออกแบบแฟลตที่มีความเห็นเป็นเอกฉันท์ และอุตสาหกรรมทั้งหมดได้รับอิทธิพลอย่างมากจากความโดดเด่นของ Apple จนเว็บไซต์ทั้งหมดเริ่มมีลักษณะเหมือนกัน Apple ออกคำแนะนำเกี่ยวกับอินเทอร์เฟซสำหรับมนุษย์และกล่าวว่า "ดูสิ แอพ iPhone ควรมีลักษณะเช่นนี้ในตอนนี้" แต่มันนำไปสู่การแบนของความหลากหลายและเว็บที่น่าเบื่อมากขึ้นในความคิดของฉัน และนั่นคือบริการของระบบเหล่านี้ที่สามารถสร้างตัวเองได้

Fergal: คุณสามารถบอกตัวแทนของคุณได้ว่าคุณต้องการให้มันดูขี้ขลาดและย้อนยุค คุณต้องจินตนาการว่าสิ่งนั้นจะมาถึง และฉันคิดว่าสิ่งต่าง ๆ จะได้รับการปรับแต่งได้มากขึ้นในแง่ของสิ่งที่ผู้คนใช้จริง ๆ เพราะคุณมีเลเยอร์อัจฉริยะที่เข้าใจวิธีสร้างส่วนต่อประสานกับทีมที่กำหนด คุณน่าจะทำอย่างนั้นในวันนี้ หากคุณออกเดินทางวันนี้เพื่อสร้าง Midjourney สำหรับอินเทอร์เฟซผู้ใช้ คุณน่าจะทำได้ เรามี GPT-4 ที่สามารถสร้างโค้ดหรือ CSS เพื่อเขียนส่วนต่อประสานกับผู้ใช้ และเรามีโมเดลการสังเคราะห์รูปภาพที่คุณฝังรูปภาพและข้อความทั้งหมด แล้วรวมเข้าด้วยกัน ฉันพนันได้เลยว่าคุณสามารถสร้างบางสิ่งได้ค่อนข้างเร็ว

Emmet: มันตลกมากเพราะคุณพูดแบบนี้ และปฏิกิริยาทางอารมณ์ของฉันคือ "ไม่ คุณไม่เข้าใจ คุณต้องคำนึงถึงความสามารถในการใช้งานและการเข้าใจมนุษย์และสิ่งต่างๆ เหล่านี้” แล้วฉันก็แบบว่า “ใช่ พวกมันคือความสามารถในการใช้เหตุผลที่เราพูดถึง และดูเหมือนว่าตอนนี้จะมีพวกมันแล้ว” และในขณะที่เรากำลังพูดถึงมัน ฉันมีอารมณ์นั้น...

เฟอร์กัล: วิกฤติ

Emmet: AI กำลังมาเพื่อฝึกฝนคุณ แต่จริงๆแล้วฉันไม่กังวลเกี่ยวกับเรื่องนี้เพราะฉันคิดว่านักออกแบบจำนวนมากและฉันเคยได้ยินเรื่องนี้สำหรับโปรแกรมเมอร์ด้วยเช่นกันจะไม่เสียใจกับงานที่ทำโดยส่วนใหญ่ทำให้เร็วขึ้นและปรับปรุง มันช่วยให้พวกเขาสามารถเพิ่มระดับการซูมและคิดเกี่ยวกับวิธีแก้ปัญหามากกว่าการดำเนินการของโซลูชัน ผลิตภัณฑ์สำหรับการก่อสร้างยังคงใช้แรงงานมากและใช้เวลานานมาก และฉันคิดว่าคงจะดีหากได้เห็นว่าเกิดอะไรขึ้นถ้าเราเอางานหนักๆ เหล่านั้นออกไป

Fergal: ฉันหมายความว่า มันเป็นการถกเถียงกันทั้งหมดเกี่ยวกับงาน ตำแหน่งงาน และการเปลี่ยนงาน และบางอย่างกำลังจะเกิดขึ้นที่นี่ เมื่อฉันได้ยินแบบนั้น ฉันรู้สึกว่า “โอ้ บางทีนั่นอาจหมายความว่าคุณไม่จำเป็นต้องมีนักออกแบบอีกต่อไป – บางทีคุณอาจต้องการแค่ผู้จัดการผลิตภัณฑ์” และตอนนี้ผู้จัดการผลิตภัณฑ์สามารถทำทุกอย่างที่นักออกแบบเคยทำได้ บางทีคุณอาจไม่ต้องการโปรแกรมเมอร์ – บางทีคุณอาจต้องการแค่ผู้จัดการผลิตภัณฑ์ และเราทุกคนจะกลายเป็นผู้จัดการผลิตภัณฑ์ในอนาคต ฉันไม่รู้. อาจจะมีบทบาทและงานแบบนั้นมากกว่านี้ หรืออาจจะน้อยลง

Emmet: ฉันคิดว่าเราควรพึ่งพาสิ่งนั้น สิ่งหนึ่งที่ฉันสังเกตเห็นในอาชีพของฉันคือ ยิ่งคุณมีอายุมากขึ้นเท่าไร คุณก็ยิ่งมีความเฉพาะเจาะจงน้อยลงในระเบียบวินัยของคุณ คุณต้องกลายเป็นผู้นำทั่วไปมากขึ้น

Fergal: ฉันได้พูดคุยกับใครบางคนในทีมออกแบบ เมื่อคุณเป็นรุ่นน้องในสาขาวิชา เช่น วิศวกรรม หรือผลิตภัณฑ์ หรือการออกแบบ คุณอยู่ที่ขอบของวงกลม และเมื่อคุณอายุมากขึ้น คุณก็จะเข้าสู่ศูนย์มากขึ้นเรื่อยๆ ตรงกลางวงกลมเป็นผลิตภัณฑ์ ดังนั้น เมื่อคุณมีอายุมากขึ้น โลกของคุณก็จะมากขึ้นเรื่อย ๆ เกี่ยวกับผลิตภัณฑ์ที่คุณกำลังสร้าง และน้อยลงเรื่อย ๆ เกี่ยวกับมุมที่คุณได้มา

เอ็มเม็ท: ฉันก็เห็นเหมือนกัน เราทุกคนจะกลายเป็น PMs นั่นคือแผนหรือไม่?

เฟอร์กัล: ใช่ ฉันหมายความว่าท้ายที่สุดแล้ว นั่นคือสิ่งที่เราพยายามทำในงานแบบนี้

Emmet: ฉันหมายถึง PM คืออะไรถ้าไม่ใช่คนที่ผลิตภัณฑ์โดยไม่มีทักษะการปฏิบัติที่เกี่ยวข้องโดยตรง ฉันพูดถูกไหม Fergal

เฟอร์กัล เรด: ใช่ ฉันรู้ PM คืออะไร?

เอ็มเม็ท: ฉันคิดว่าเราควรจะจบกัน ไชโยเฟอร์กัล

เฟอร์กัล: ขอบคุณ เอ็มเม็ต

รายการรอ Fin