แทงบอล

แทงบอล | วิธีการสอนปัญญาประดิษฐ์บางสามัญสำนึก

เราใช้เวลาหลายปีในการป้อนข้อมูลจำนวนมากให้กับโครงข่ายประสาท สอนให้พวกเขาคิดเหมือนสมองของมนุษย์  พวกเขาฉลาดมากแต่พวกเขาไม่มีสามัญสำนึกเลย แล้วถ้าเราทำผิดล่ะ คุณสามารถหาเงินทุนเพื่อเริ่มต้นสร้างปัญญาประดิษฐ์ของคุณได้ที่เว็บ แทงบอล

แทงบอล

อะไรคือจุดเริ่มต้น แทงบอล

เมื่อห้าปีที่แล้ว นักเขียนโค้ดที่ DeepMind บริษัทปัญญาประดิษฐ์ในลอนดอน เฝ้าดูอย่างตื่นเต้นเมื่อ AI สอนตัวเองให้เล่นเกมอาร์เคดสุดคลาสสิก พวกเขาใช้เทคนิคที่ร้อนแรงของวัน นั่นคือการเรียนรู้อย่างลึกซึ้งในงานที่ดูเหมือนแปลก: เชี่ยวชาญ Breakout 1 เกม Atari ที่คุณกระเด้งลูกบอลไปที่กำแพงอิฐ พยายามทำให้แต่ละก้อนหายไป

 

การเรียนรู้เชิงลึกคือการเรียนรู้ด้วยตนเองสำหรับเครื่องจักร คุณป้อนข้อมูล AI จำนวนมาก และในที่สุดก็เริ่มแยกแยะรูปแบบทั้งหมดได้ด้วยตัวเอง ในกรณีนี้ ข้อมูลคือกิจกรรมบนหน้าจอ ซึ่งเป็นพิกเซลบล็อกที่แสดงก้อนอิฐ ลูกบอล และไม้พายของผู้เล่น DeepMind AI ที่เรียกว่าโครงข่ายประสาทเทียมที่สร้างขึ้นจากอัลกอริธึมแบบเลเยอร์ ไม่ได้ตั้งโปรแกรมด้วยความรู้ใดๆ เกี่ยวกับวิธีการทำงานของ Breakout กฎ เป้าหมาย หรือแม้แต่วิธีการเล่น ผู้เขียนโค้ดปล่อยให้โครงข่ายประสาทตรวจสอบผลลัพธ์ของแต่ละการกระทำ แต่ละครั้งที่ลูกบอลกระดอน มันจะนำไปสู่ที่ไหน?

สำหรับทักษะที่น่าประทับใจบางอย่างก็ปรากฏออกมา ในช่วงสองสามเกมแรก AI พลิกไปมา แต่หลังจากเล่นไปสองสามร้อยครั้ง มันก็เริ่มกระดอนลูกบอลได้อย่างแม่นยำ ในเกมที่ 600 โครงข่ายประสาทใช้การเคลื่อนไหวที่เชี่ยวชาญมากขึ้นซึ่งใช้โดยผู้เล่นฝ่าวงล้อมที่เป็นมนุษย์ บิ่นผ่านอิฐทั้งคอลัมน์และตั้งลูกบอลให้กระดอนอย่างสนุกสนานไปตามด้านบนของกำแพง

 

“นั่นเป็นเรื่องที่น่าประหลาดใจมากสำหรับเรา” Demis Hassabis ซีอีโอของ DeepMind กล่าวในขณะนั้น “กลยุทธ์เกิดขึ้นอย่างสมบูรณ์จากระบบพื้นฐาน” AI ได้แสดงความสามารถในสิ่งที่ดูเหมือนจะเป็นความคิดที่ละเอียดอ่อนอย่างมนุษย์ เป็นการเข้าใจแนวคิดโดยธรรมชาติที่อยู่เบื้องหลังการฝ่าวงล้อม เนื่องจากโครงข่ายประสาทสะท้อนโครงสร้างของสมองมนุษย์อย่างหลวมๆ ทฤษฎีก็คือว่าพวกมันควรเลียนแบบรูปแบบการรับรู้ของเราเองในบางแง่มุม ช่วงเวลานี้ดูเหมือนจะเป็นเครื่องพิสูจน์ว่าทฤษฎีนี้ถูกต้อง

 

จากนั้นในปีที่แล้ว นักวิทยาศาสตร์คอมพิวเตอร์ที่ Vicarious ซึ่งเป็นบริษัท AI ในซานฟรานซิสโก ได้เสนอการตรวจสอบความเป็นจริงที่น่าสนใจ พวกเขาใช้ AI แบบเดียวกับที่ DeepMind ใช้และฝึกบน Breakout มันเล่นได้ดี แต่แล้วพวกเขาก็ปรับเลย์เอาต์ของเกมเล็กน้อย พวกเขายกไม้พายให้สูงขึ้นในครั้งเดียว ในอีกทางหนึ่งพวกเขาเพิ่มพื้นที่ที่ไม่แตกหักตรงกลางบล็อก

ผู้เล่นที่เป็นมนุษย์จะสามารถปรับตัวให้เข้ากับการเปลี่ยนแปลงเหล่านี้ได้อย่างรวดเร็ว โครงข่ายประสาททำไม่ได้ AI ที่ดูเหมือนฉลาดหลักแหลมสามารถเล่นได้เฉพาะรูปแบบการฝ่าวงล้อมที่แน่นอน ซึ่งใช้เวลาหลายร้อยเกมในการควบคุม ไม่สามารถจัดการกับสิ่งใหม่ได้

Dileep George นักวิทยาศาสตร์คอมพิวเตอร์ผู้ร่วมก่อตั้ง Vicarious บอกว่า “มนุษย์เราไม่ได้เป็นแค่ตัวจำแนกรูปแบบ” “เรากำลังสร้างแบบจำลองเกี่ยวกับสิ่งที่เราเห็น และนี่คือแบบจำลองเชิงสาเหตุ—เราเข้าใจเกี่ยวกับเหตุและผล” มนุษย์มีส่วนร่วมในการใช้เหตุผล ทำการอนุมานเชิงตรรกะเกี่ยวกับโลกรอบตัวเรา เรามีคลังความรู้ทั่วไปที่ช่วยให้เราเข้าใจสถานการณ์ใหม่ๆ เมื่อเราเห็นเกม Breakout ที่แตกต่างจากที่เราเพิ่งเล่นไปเล็กน้อย เราตระหนักดีว่าเกมส่วนใหญ่มักจะมีกฎและเป้าหมายเหมือนกัน ในทางกลับกัน โครงข่ายประสาทไม่เข้าใจอะไรเกี่ยวกับฝ่าวงล้อม ทั้งหมดที่ทำได้คือทำตามแบบแผน เมื่อรูปแบบเปลี่ยนไปก็ทำอะไรไม่ถูก

การเรียนรู้เชิงลึกเป็นหลักของปัญญาประดิษฐ์ ในช่วงหกปี มันได้กลายเป็นวิธีที่โดดเด่นในการช่วยให้เครื่องจักรรับรู้และรับรู้โลกรอบตัวพวกเขา ขับเคลื่อนการเรียนรู้จำเสียงพูดของ Alexa รถยนต์ไร้คนขับของ Waymo และการแปลแบบเรียลไทม์ของ Google ในบางวิธีที่ยอดเยี่ยม คือการเพิ่มประสิทธิภาพปัญหาใหญ่ที่ใช้เครื่องเรียนรู้เพื่อค้นหาที่ผู้โดยสารต้องการรถ Baidu บริษัทยักษ์ใหญ่ด้านเทคโนโลยีของจีน มีวิศวกรมากกว่า 2,000 คนที่ทำงานบนเครือข่ายประสาทเทียม เป็นเวลาหลายปีที่ดูเหมือนว่า การเรียนรู้เชิงลึกจะมีแต่จะดีขึ้นเรื่อยๆ นำไปสู่เครื่องจักรที่มีความลื่นไหลและสติปัญญาเหมือนมนุษย์

 

แต่พวกนอกรีตบางคนโต้แย้งว่าการเรียนรู้เชิงลึกกำลังกระทบกำแพง พวกเขาบอกว่าด้วยตัวของมันเอง มันจะไม่สร้างสติปัญญาทั่วไป เพราะความฉลาดที่เหมือนมนุษย์อย่างแท้จริง ไม่ใช่แค่การจดจำรูปแบบเท่านั้น เราต้องเริ่มหาวิธีสร้าง AI ด้วยสามัญสำนึกในชีวิตประจำวัน ซึ่งเป็นเรื่องฉลาดของมนุษย์ หากเราไม่เตือน เราจะก้าวข้ามขีดจำกัดของการเรียนรู้เชิงลึกต่อไป เช่น ระบบการรู้จำภาพที่สามารถหลอกได้ง่ายโดยการเปลี่ยนอินพุตไม่กี่อย่าง ทำให้โมเดลการเรียนรู้เชิงลึกคิดว่า เต่าคือปืน แต่ถ้าเราประสบความสำเร็จ เราจะเห็นการระเบิดของอุปกรณ์ที่ปลอดภัยและมีประโยชน์มากขึ้น—หุ่นยนต์ดูแลสุขภาพที่นำทางกลับบ้านรก ระบบตรวจจับการฉ้อโกงที่ไม่ผิดพลาด ความก้าวหน้าทางการแพทย์ที่ขับเคลื่อนโดยเครื่องจักรที่ไตร่ตรองสาเหตุ และมีผลในการเกิดโรค
แต่การให้เหตุผลที่แท้จริงมีลักษณะอย่างไรในเครื่อง? และถ้าการเรียนรู้เชิงลึกไม่สามารถพาเราไปถึงจุดนั้นได้ อะไรล่ะที่ทำได้

 

แกรี่ มาร์คัสเป็นศาสตราจารย์ด้านจิตวิทยาและประสาทวิทยาวัย 48 ปีที่หม่นหมอง ที่มหาวิทยาลัยนิวยอร์ก และเขาน่าจะเป็นผู้ละทิ้งความเชื่อที่โด่งดังที่สุดของการเรียนรู้เชิงลึกแบบออร์โธดอกซ์

มาร์คัสเริ่มสนใจปัญญาประดิษฐ์ครั้งแรกในช่วงทศวรรษ 1980 และ 1990 เมื่อโครงข่ายประสาทยังอยู่ในช่วงทดลอง และเขาก็มีข้อโต้แย้งแบบเดียวกันตั้งแต่นั้นเป็นต้นมา “ไม่ใช่ว่าฉันมางานปาร์ตี้นี้สายและอยากฉี่” มาร์คัสบอกฉันเมื่อพบเขาที่อพาร์ตเมนต์ใกล้ NYU (เราเป็นเพื่อนส่วนตัวด้วย) “ทันทีที่การเรียนรู้เชิงลึกปะทุขึ้น ฉันพูดว่า ‘นี่คือทิศทางที่ผิด!’ ”

 

แทงบอล

กลยุทธ์เบื้องหลังคืออะไร

ย้อนกลับไปในตอนนั้น กลยุทธ์เบื้องหลังการเรียนรู้เชิงลึกก็เหมือนกับในทุกวันนี้ สมมติว่าคุณต้องการให้เครื่องจักรสอนตัวเองให้รู้จักดอกเดซี่ ขั้นแรก คุณต้องเขียนโค้ด “เซลล์ประสาท” แบบอัลกอรึทึมซึ่งเชื่อมต่อพวกมันในเลเยอร์ต่างๆ เช่น แซนด์วิช (เมื่อคุณใช้หลายเลเยอร์ แซนด์วิชจะหนาขึ้นหรือลึกขึ้น ดังนั้นจึงเป็นการเรียนรู้แบบ “ลึก”) คุณต้องแสดงภาพดอกเดซี่ในชั้นแรก และเซลล์ประสาทของมันจะยิงหรือไม่ยิงขึ้นอยู่กับว่าภาพนั้นคล้ายกับตัวอย่างของดอกเดซี่ที่เคยเห็นมาก่อนหรือไม่ สัญญาณจะย้ายไปยังชั้นถัดไป ซึ่งกระบวนการจะทำซ้ำ ในที่สุด เลเยอร์ต่างๆ ก็จะพังลงมาเป็นคำตัดสินขั้นสุดท้าย

ในตอนแรก โครงข่ายประสาทกำลังคาดเดาอย่างสุ่มสี่สุ่มห้า มันเริ่มต้นชีวิตด้วยกระดานชนวนที่ว่างเปล่าไม่มากก็น้อย กุญแจสำคัญคือการสร้างลูปความคิดเห็นที่เป็นประโยชน์ ทุกครั้งที่ AI พลาดดอกเดซี่ ชุดของการเชื่อมต่อประสาทจะทำให้การเชื่อมโยงที่นำไปสู่การคาดเดาที่ไม่ถูกต้อง หากประสบความสำเร็จก็จะทำให้พวกเขาแข็งแกร่งขึ้น หากมีเวลาเพียงพอและมีดอกเดซี่เพียงพอ โครงข่ายประสาทจะแม่นยำยิ่งขึ้น มันเรียนรู้ที่จะเข้าใจรูปแบบของดอกเดซี่ที่ช่วยให้สามารถตรวจจับดอกเดซี่ได้ (ไม่ใช่ดอกทานตะวันหรือดอกแอสเตอร์) ในแต่ละครั้ง หลายปีผ่านไป แนวคิดหลักนี้—เริ่มต้นด้วยเครือข่ายที่ไร้เดียงสาและฝึกฝนด้วยการทำซ้ำ—ได้รับการปรับปรุงและดูเหมือนมีประโยชน์เกือบทุกที่ที่มันถูกนำไปใช้

 

แต่มาร์คัสไม่เคยเชื่อ สำหรับเขา ปัญหาคือกระดานชนวนที่ว่างเปล่า: สันนิษฐานว่ามนุษย์สร้างสติปัญญาของพวกเขาอย่างหมดจดโดยการสังเกตโลกรอบตัวพวกเขา และเครื่องจักรนั้นก็ทำได้เช่นกัน แต่มาร์คัสไม่คิดว่านั่นเป็นวิธีที่มนุษย์ทำงาน เขาเดินบนเส้นทางแห่งปัญญาที่ Noam Chomsky วางไว้2 ผู้ซึ่งโต้แย้งว่ามนุษย์เกิดมาเพื่อเรียนรู้ ตั้งโปรแกรมให้เชี่ยวชาญภาษา และตีความโลกทางกายภาพ

 

เขาตั้งข้อสังเกตว่า โครงข่ายประสาทดูเหมือนจะไม่ทำงานอย่างที่สมองมนุษย์ทำ สำหรับผู้เริ่มต้น พวกเขาต้องการข้อมูลมากเกินไป ในกรณีส่วนใหญ่ โครงข่ายประสาทแต่ละโครงต้องการตัวอย่างหลายพันหรือล้านตัวอย่างเพื่อเรียนรู้ ที่แย่กว่านั้น ทุกครั้งที่คุณต้องการให้โครงข่ายประสาทรับรู้รายการประเภทใหม่ คุณต้องเริ่มต้นจากศูนย์ โครงข่ายประสาทที่ได้รับการฝึกฝนให้รู้จักเฉพาะนกคีรีบูนไม่มีประโยชน์ใด ๆ ในการจดจำ พูด เสียงนกร้อง หรือคำพูดของมนุษย์

 

“เราไม่ต้องการข้อมูลจำนวนมากเพื่อเรียนรู้” Marcus กล่าว ลูกๆ ของเขาไม่จำเป็นต้องเห็นรถเป็นล้านคันก่อนที่จะจำรถได้ ยังดีกว่าพวกเขาสามารถสรุป; เมื่อพวกเขาเห็นรถแทรกเตอร์เป็นครั้งแรก พวกเขาเข้าใจว่ามันเหมือนกับรถ พวกเขายังสามารถมีส่วนร่วมในการตอบโต้ Google แปลภาษาสามารถจับคู่ภาษาฝรั่งเศสกับประโยคภาษาอังกฤษว่า “แก้วถูกผลักตกจากโต๊ะ” แต่ไม่รู้ความหมายของคำนั้น จึงไม่สามารถบอกคุณได้ว่าจะเกิดอะไรขึ้นถ้าไม่ผลักแก้ว Marcus ตั้งข้อสังเกตว่ามนุษย์ไม่เพียงเข้าใจรูปแบบของไวยากรณ์เท่านั้น แต่ยังเข้าใจตรรกะเบื้องหลังด้วย คุณอาจให้กริยาปลอมเช่น pilk แก่เด็กเล็กๆ และเธอน่าจะสามารถให้เหตุผลว่าอดีตกาลจะถูกทำลาย เธอไม่เคยเห็นคำนั้นมาก่อนแน่นอน เธอไม่ได้รับการ “ฝึกฝน” เรื่องนี้

“ระบบการเรียนรู้เชิงลึกเหล่านี้ไม่รู้ว่าจะบูรณาการความรู้เชิงนามธรรมได้อย่างไร” Marcus ผู้ก่อตั้งบริษัทที่สร้าง AI เพื่อเรียนรู้โดยใช้ข้อมูลน้อยลง (และขายบริษัทให้กับ Uber ในปี 2559) กล่าว

เมื่อต้นปีนี้ Marcus ได้ตีพิมพ์เอกสารไวท์เปเปอร์เกี่ยวกับ arXiv โดยให้เหตุผลว่าหากปราศจากแนวทางใหม่ การเรียนรู้เชิงลึกอาจไม่มีวันก้าวข้ามข้อจำกัดในปัจจุบันได้ สิ่งที่ต้องการคือการส่งเสริม—กฎที่เสริมหรือสร้างขึ้นเพื่อช่วยให้กฎนี้ใช้เหตุผลเกี่ยวกับโลก

OREN ETZIONI เป็นหมีที่ยิ้มแย้มแจ่มใสของผู้ชาย นักวิทยาศาสตร์คอมพิวเตอร์ที่ดูแลสถาบันอัลเลนเพื่อปัญญาประดิษฐ์ในซีแอตเทิลเขาทักทายฉันในสํานักงานที่สดใสของเขาสวมกางเกงยีนส์และเสื้อเชิ้ตสีปลาแซลมอนนําฉันผ่านกระดานไวท์บอร์ดที่เขียนด้วย musings เกี่ยวกับความฉลาดของเครื่องจักร (“กําหนดความสําเร็จ” “งานคืออะไร”) ด้านนอกในห้องหลักที่เปียกโชกด้วยแสงแดดของสถาบันนักวิจัย AI รุ่นเยาว์พายเรือไปรอบ ๆ sylphlike หูฟังที่ติดอยู่จิกคีย์บอร์ดอย่างเงียบ ๆ

Etzioni และทีมของเขากําลังทํางานเกี่ยวกับปัญหาสามัญสํานึก เขานิยามมันในบริบทของสองช่วงเวลา AI ในตํานาน—การทรยศของปรมาจารย์หมากรุก Garry Kasparov3 โดย Deep Blue ของ IBM ในปี 1997 และความพ่ายแพ้ที่น่าตกใจไม่แพ้กันของผู้เล่น Go ชั้นนําของโลกโดย AlphaGo ของ DeepMind เมื่อปีที่แล้ว (Google ซื้อ DeepMind ในปี 2014)

 

“ด้วย Deep Blue เรามีโปรแกรมที่จะทำให้หมากรุกเหนือมนุษย์—ในขณะที่ห้องไฟไหม้” Etzioni พูดติดตลก “ถูกต้อง? ไม่ได้สมบูรณ์โดยสิ้นเชิง ในอีก 20 ปีข้างหน้า เรามีคอมพิวเตอร์ที่สามารถทำให้เคลื่อนไหวได้ ในขณะที่ห้องไฟไหม้” แน่นอนว่ามนุษย์ไม่มีข้อจำกัดนี้ ทีมของเขาเล่นเกมหมากรุกบ้านแมลงทุกสัปดาห์ และหากเกิดเพลิงไหม้ มนุษย์ก็จะดึงสัญญาณเตือนและวิ่งไปที่ประตู

กล่าวอีกนัยหนึ่งมนุษย์มีฐานความรู้เกี่ยวกับโลก (ไฟเผาไหม้สิ่งของ) ผสมกับความสามารถในการให้เหตุผลเกี่ยวกับมัน (คุณควรพยายามย้ายออกจากไฟที่ควบคุมไม่ได้) เพื่อให้ AI คิดเหมือนคนได้จริง เราต้องสอนมันในสิ่งที่ทุกคนรู้ เช่น ฟิสิกส์ (ลูกบอลที่โยนขึ้นไปในอากาศจะตกลงมา) หรือขนาดของสิ่งของ (ช้างไม่สามารถใส่ลงในอ่างอาบน้ำได้) จนกว่า AI จะมีแนวคิดพื้นฐานเหล่านี้ Etzioni ก็ไม่สามารถให้เหตุผลได้

 

ด้วยเงินจำนวนหลายร้อยล้านดอลลาร์จาก Paul Allen 4 Etzioni และทีมของเขากำลังพยายามพัฒนาชั้นของการใช้เหตุผลแบบสามัญสำนึกเพื่อทำงานกับรูปแบบโครงข่ายประสาทที่มีอยู่ (สถาบันอัลเลนเป็นองค์กรไม่แสวงหากำไร ดังนั้นทุกสิ่งที่พวกเขาค้นพบจะถูกเผยแพร่สำหรับทุกคนที่จะใช้)