ปัญญาประดิษฐ์
ปัญญาประดิษฐ์ ( AI ) เป็นความฉลาดที่แสดงโดยเครื่องจักรซึ่งแตกต่างจากความฉลาดตามธรรมชาติที่ มนุษย์และสัตว์แสดงซึ่งเกี่ยวข้องกับสติและอารมณ์ ความแตกต่างระหว่างประเภทเดิมและประเภทหลังมักถูกเปิดเผยโดยใช้ตัวย่อที่เลือก AI ที่ 'แข็งแกร่ง' มักถูกระบุว่าเป็นปัญญาประดิษฐ์ทั่วไป (AGI) ในขณะที่ความพยายามที่จะเลียนแบบปัญญา 'ธรรมชาติ' ถูกเรียกว่าปัญญาประดิษฐ์ทางชีวภาพ (ABI) ตำรา AI ชั้นนำกำหนดสาขานี้ว่าเป็นการศึกษา " ตัวแทนอัจฉริยะ": อุปกรณ์ใด ๆ ที่รับรู้สภาพแวดล้อมและดำเนินการเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายให้สำเร็จ[3] ในภาษาเรียกขานคำว่า" ปัญญาประดิษฐ์ "มักใช้เพื่ออธิบายเครื่องจักรที่เลียนแบบฟังก์ชัน" ความรู้ความเข้าใจ "ที่มนุษย์เชื่อมโยงกับมนุษย์ จิตใจเช่น "การเรียนรู้" และ "การแก้ปัญหา" [4]
ในฐานะที่เป็นเครื่องกลายเป็นความสามารถมากขึ้นงานถือว่าเป็นที่จะต้องใช้ "ปัญญา" มักจะถูกลบออกจากความหมายของไอปรากฏการณ์ที่เรียกว่าผล AI [5]คำพูดหนึ่งในทฤษฎีบทของ Tesler กล่าวว่า "AI คืออะไรก็ตามที่ยังไม่ได้ทำ" [6]ตัวอย่างเช่นการรู้จำอักขระด้วยแสงมักถูกแยกออกจากสิ่งที่ถือว่าเป็น AI [7]กลายเป็นเทคโนโลยีประจำ [8]โมเดิร์นความสามารถเครื่องจัดโดยทั่วไปเป็น AI รวมถึงการประสบความสำเร็จในการพูดของมนุษย์เข้าใจ , [9]การแข่งขันในระดับที่สูงที่สุดในเกมเชิงกลยุทธ์ระบบ (เช่นหมากรุกและGo ) [10]และยังไม่สมบูรณ์ข้อมูลเกมเช่นโป๊กเกอร์ , [11 ] รถยนต์ตนเองขับรถอัจฉริยะเส้นทางในเครือข่ายการจัดส่งเนื้อหาและการจำลองทางทหาร [12]
ปัญญาประดิษฐ์ก่อตั้งขึ้นในฐานะสาขาวิชาการศึกษาในปี พ.ศ. 2498 และในช่วงหลายปีที่ผ่านมามีการมองโลกในแง่ดีหลายระลอก[13] [14]ตามมาด้วยความผิดหวังและการสูญเสียเงินทุน (เรียกว่า " ฤดูหนาว AI ") [15] [16]ตามด้วยแนวทางใหม่ความสำเร็จและการระดมทุนใหม่ [14] [17]หลังจากAlphaGoประสบความสำเร็จในการเอาชนะผู้เล่น Go มืออาชีพในปี 2015 ปัญญาประดิษฐ์ก็ดึงดูดความสนใจไปทั่วโลกอีกครั้ง [18]ในประวัติศาสตร์ส่วนใหญ่การวิจัย AI ถูกแบ่งออกเป็นสาขาย่อยที่มักจะไม่สามารถสื่อสารกันได้ [19]เขตข้อมูลย่อยเหล่านี้ขึ้นอยู่กับการพิจารณาทางเทคนิคเช่นเป้าหมายเฉพาะ (เช่น " หุ่นยนต์ " หรือ " การเรียนรู้ของเครื่อง ") [20]การใช้เครื่องมือเฉพาะ (" ตรรกะ " หรือโครงข่ายประสาทเทียม ) หรือปรัชญาเชิงลึก ความแตกต่าง [23] [24] [25]สาขาย่อยยังขึ้นอยู่กับปัจจัยทางสังคม (สถาบันเฉพาะหรือผลงานของนักวิจัยโดยเฉพาะ) [19]
ปัญหาเดิม (หรือเป้าหมาย) ของการวิจัย AI ประกอบด้วยเหตุผล , แทนความรู้ , การวางแผน , การเรียนรู้ , การประมวลผลภาษาธรรมชาติ , การรับรู้และความสามารถในการย้ายและจัดการวัตถุ [20] AGI เป็นหนึ่งในเป้าหมายระยะยาวของสนาม [26]แนวทางรวมถึงวิธีการทางสถิติ , ปัญญาประดิษฐ์และแบบดั้งเดิมสัญลักษณ์ AI มีการใช้เครื่องมือหลายอย่างใน AI รวมถึงเวอร์ชันของการค้นหาและการเพิ่มประสิทธิภาพทางคณิตศาสตร์เครือข่ายประสาทเทียมและวิธีการที่ใช้สถิติความน่าจะเป็นและเศรษฐศาสตร์ สนาม AI เสมอเมื่อวิทยาการคอมพิวเตอร์ , วิศวกรรมข้อมูล , คณิตศาสตร์ , จิตวิทยา , ภาษาศาสตร์ , ปรัชญาและสาขาอื่น ๆ อีกมากมาย
สนามแห่งนี้ก่อตั้งขึ้นจากสมมติฐานที่ว่าความฉลาดของมนุษย์ "สามารถอธิบายได้อย่างแม่นยำมากจนสามารถสร้างเครื่องจักรเพื่อจำลองได้" [27]สิ่งนี้ทำให้เกิดข้อโต้แย้งทางปรัชญาเกี่ยวกับจิตใจและจริยธรรมในการสร้างสิ่งมีชีวิตเทียมที่มีสติปัญญาเหมือนมนุษย์ ปัญหาเหล่านี้ได้รับการสำรวจโดยตำนาน , นิยายและปรัชญาตั้งแต่สมัยโบราณ [32]บางคนยังคิดว่า AI เป็นอันตรายต่อมนุษยชาติหากมันดำเนินไปอย่างไม่หยุดยั้ง [33] [34]คนอื่น ๆ เชื่อว่า AI ซึ่งแตกต่างจากการปฏิวัติทางเทคโนโลยีก่อนหน้านี้จะสร้างความเสี่ยงต่อการว่างงานจำนวนมาก [35]
ในศตวรรษที่ยี่สิบเอ็ดเทคนิค AI มีประสบการณ์การฟื้นตัวต่อไปนี้ความก้าวหน้าพร้อมกันในไฟของคอมพิวเตอร์จำนวนมากข้อมูลและความเข้าใจเชิงทฤษฎี; และเทคนิค AI ได้กลายเป็นส่วนสำคัญของอุตสาหกรรมเทคโนโลยีช่วยในการแก้ปัญหาความท้าทายมากมายในวิทยาการคอมพิวเตอร์, วิศวกรรมซอฟต์แวร์และการดำเนินงานวิจัย [36] [17]
ประวัติศาสตร์

ความคิดความสามารถในสิ่งมีชีวิตเทียมปรากฏเป็นนิทานอุปกรณ์ในสมัยโบราณ[37]และได้รับร่วมกันในนิยายในขณะที่แมรีเชลลีย์ 's Frankensteinหรือกาเรลชาเปก ' s RUR [38]ตัวละครเหล่านี้และชะตากรรมของพวกเขายกหลายปัญหาเดียวกันในขณะนี้ กล่าวถึงในจริยธรรมของปัญญาประดิษฐ์ [32]
การศึกษาเหตุผลเชิงกลหรือ"เป็นทางการ"เริ่มจากนักปรัชญาและนักคณิตศาสตร์ในสมัยโบราณ การศึกษาของตรรกะทางคณิตศาสตร์นำโดยตรงกับอลันทัวริง 's ทฤษฎีของการคำนวณซึ่งชี้ให้เห็นว่าเครื่องโดยสับสัญลักษณ์เป็นง่ายๆเป็น '0' และ '1' สามารถจำลองการกระทำที่เป็นไปได้ใด ๆ ของการหักคณิตศาสตร์ ความเข้าใจนี้ว่าคอมพิวเตอร์ดิจิตอลสามารถจำลองกระบวนการของการใช้เหตุผลอย่างเป็นทางการใด ๆ ที่เป็นที่รู้จักกันเป็นวิทยานิพนธ์โบสถ์ทัวริง [39]พร้อมกับการค้นพบที่เกิดขึ้นพร้อมกันในชีววิทยา , ทฤษฎีสารสนเทศและไซเบอร์เนติกส์นักวิจัยนำนี้จะต้องพิจารณาความเป็นไปได้ของการสร้างสมองอิเล็กทรอนิกส์ ทัวริงเสนอให้เปลี่ยนคำถามจากว่าเครื่องจักรมีความชาญฉลาดเป็น "เครื่องจักรจะแสดงพฤติกรรมที่ชาญฉลาดได้หรือไม่" [40]ผลงานชิ้นแรกที่รู้จักกันโดยทั่วไปว่า AI คือการออกแบบอย่างเป็นทางการของMcCullouchและPitts ในปี 1943 สำหรับ"เซลล์ประสาทเทียม" ของทัวริงที่สมบูรณ์ [41]
ด้านการวิจัย AI เกิดในการประชุมเชิงปฏิบัติการที่Dartmouth Collegeในปี 1956 [42]ที่คำว่า "ปัญญาประดิษฐ์" ได้รับการประกาศเกียรติคุณจากจอห์นแมคคาร์ที่จะแยกแยะข้อมูลจากไซเบอร์เนติกส์และหลบหนีอิทธิพลของ cyberneticist Norbert Wiener [43]ผู้เข้าร่วมAllen Newell ( CMU ), Herbert Simon (CMU), John McCarthy ( MIT ), Marvin Minsky (MIT) และArthur Samuel ( IBM ) กลายเป็นผู้ก่อตั้งและผู้นำการวิจัย AI [44]พวกเขาและนักเรียนผลิตรายการที่สื่อมวลชนอธิบายว่า "น่าอัศจรรย์": [45]คอมพิวเตอร์กำลังเรียนรู้กลยุทธ์การเล่นหมากฮอส (ค. 1954) [46] (และในปีพ. ศ. 2502 มีรายงานว่าเล่นได้ดีกว่ามนุษย์ทั่วไป), [47 ]การแก้ปัญหาคำศัพท์ในพีชคณิตการพิสูจน์ทฤษฎีบทเชิงตรรกะ ( Logic Theorist , first run c. 1956) และการพูดภาษาอังกฤษ [48]ในช่วงกลางทศวรรษ 1960 การวิจัยในสหรัฐอเมริกาได้รับทุนสนับสนุนอย่างมากจากกระทรวงกลาโหม[49]และมีการจัดตั้งห้องปฏิบัติการขึ้นทั่วโลก [50]ผู้ก่อตั้ง AI มองโลกในแง่ดีเกี่ยวกับอนาคต: เฮอร์เบิร์ตไซมอนทำนายว่า "เครื่องจักรจะมีความสามารถภายในยี่สิบปีในการทำงานใด ๆ ที่มนุษย์ทำได้" Marvin Minskyเห็นด้วยโดยเขียนว่า "ภายในชั่วอายุคน ... ปัญหาในการสร้าง 'ปัญญาประดิษฐ์' จะได้รับการแก้ไขอย่างมีนัยสำคัญ" [13]
พวกเขาล้มเหลวในการรับรู้ถึงความยากลำบากของงานบางส่วนที่เหลืออยู่ ความคืบหน้าช้าลงและในปีพ. ศ. 2517 เพื่อตอบสนองต่อคำวิจารณ์ของเซอร์เจมส์ไลท์ฮิลล์[51]และแรงกดดันอย่างต่อเนื่องจากรัฐสภาสหรัฐฯในการให้ทุนสนับสนุนโครงการที่มีประสิทธิผลมากขึ้นทั้งรัฐบาลสหรัฐฯและอังกฤษได้ตัดการวิจัยเชิงสำรวจใน AI ไม่กี่ปีต่อมาจะเรียกว่า " ฤดูหนาว AI " [15]ช่วงเวลาที่การได้รับเงินทุนสำหรับโครงการ AI เป็นเรื่องยาก
ในช่วงต้นทศวรรษที่ 1980 การวิจัย AI ก็ฟื้นขึ้นมาจากความสำเร็จในเชิงพาณิชย์ของระบบผู้เชี่ยวชาญ , [52]รูปแบบของโปรแกรม AI ที่จำลองความรู้และทักษะการวิเคราะห์ของผู้เชี่ยวชาญของมนุษย์ ในปี 1985 ตลาดสำหรับ AI มีมูลค่าสูงถึงกว่าพันล้านดอลลาร์ ในเวลาเดียวกันของญี่ปุ่นคอมพิวเตอร์รุ่นที่ห้าโครงการแรงบันดาลใจในสหรัฐและรัฐบาลอังกฤษจะเรียกคืนเงินทุนสำหรับการวิจัยทางวิชาการ [14]อย่างไรก็ตามเริ่มต้นด้วยการล่มสลายของตลาดLisp Machineในปี 1987 AI ก็ตกอยู่ในภาวะเสียชื่อเสียงอีกครั้งและวินาทีที่หายไปนานขึ้นก็เริ่มขึ้น [16]
การพัฒนาโลหะ - ออกไซด์ - เซมิคอนดักเตอร์ (MOS) การบูรณาการขนาดใหญ่มาก (VLSI) ในรูปแบบของเทคโนโลยีทรานซิสเตอร์เสริม MOS (CMOS) ทำให้สามารถพัฒนาเทคโนโลยีโครงข่ายประสาทเทียม (ANN) ที่ใช้งานได้จริงในช่วงทศวรรษที่ 1980 สิ่งพิมพ์ที่โดดเด่นในสาขานี้คือหนังสือAnalog VLSI Implementation of Neural Systemsในปี 1989 โดยCarver A.Meadและ Mohammed Ismail [53]
ในปี 1990 และในช่วงต้นศตวรรษที่ 21 ปลาย AI เริ่มที่จะนำมาใช้สำหรับการขนส่ง, การทำเหมืองข้อมูล , การวินิจฉัยทางการแพทย์และพื้นที่อื่น ๆ [36]ความสำเร็จเป็นผลมาจากการเพิ่มกำลังการคำนวณ (ดูกฎของมัวร์และทรานซิสเตอร์นับ ) เน้นความสำคัญในการแก้ปัญหาเฉพาะความสัมพันธ์ใหม่ระหว่าง AI และสาขาอื่น ๆ (เช่นสถิติ , เศรษฐศาสตร์และคณิตศาสตร์ ) และความมุ่งมั่นจากนักวิจัย วิธีการทางคณิตศาสตร์และมาตรฐานทางวิทยาศาสตร์ [54] Deep Blueกลายเป็นระบบการเล่นหมากรุกคอมพิวเตอร์เครื่องแรกที่เอาชนะแชมป์โลกหมากรุกแกร์รีคาสปารอฟเมื่อวันที่ 11 พฤษภาคม พ.ศ. 2540 [55]
ในปี 2554 ตกอยู่ในอันตราย! แบบทดสอบการแสดงงานมหกรรมการแข่งขัน, IBM 's คำถามระบบตอบรับ , วัตสันแพ้ทั้งสองที่ยิ่งใหญ่ที่สุดอันตราย! แชมป์เปี้ยนแบรดรัทเทอร์และเคนเจนนิงส์ด้วยอัตรากำไรขั้นต้นที่สำคัญ [56] คอมพิวเตอร์ที่เร็วขึ้นการปรับปรุงอัลกอริทึมและการเข้าถึงข้อมูลจำนวนมากทำให้เกิดความก้าวหน้าในการเรียนรู้และการรับรู้ของเครื่อง ข้อมูลหิวเรียนรู้ลึกวิธีการเริ่มต้นที่จะมาตรฐานความถูกต้องครองรอบ 2012 [57] Kinectซึ่งมีอินเตอร์เฟซที่ร่างกายเคลื่อนไหว 3 มิติสำหรับXbox 360และXbox Oneใช้อัลกอริทึมที่โผล่ออกมาจากความยาว AI วิจัย[58]เช่นเดียวกับผู้ช่วยส่วนตัวที่ชาญฉลาดในมาร์ทโฟน [59]ในเดือนมีนาคมปี 2016 AlphaGoชนะ 4 จาก 5 เกมไปในการแข่งขันกับ GO แชมป์อีเซดอลเป็นครั้งแรกคอมพิวเตอร์ไประบบ -playing จะชนะผู้เล่นมืออาชีพไปโดยไม่ต้องพิการ [10] [60]ใน 2017 อนาคตของไปประชุมสุดยอด , AlphaGoได้รับรางวัลการแข่งขันสามเกมกับKe Jie , [61]ซึ่งเป็นเวลาที่จัดขึ้นทั่วโลกครั้งที่ 1 การจัดอันดับสำหรับสองปีอย่างต่อเนื่อง [62] [63] Deep Blue 's เมอเรย์แคมป์เบลเรียกว่า AlphaGo ชัยชนะ 'สิ้นยุค ... เกมกระดานจะมากหรือน้อยทำ[64]และก็ถึงเวลาที่จะย้ายไป.' [65]นี่เป็นการเสร็จสิ้นขั้นตอนสำคัญในการพัฒนาปัญญาประดิษฐ์เนื่องจาก Go เป็นเกมที่ค่อนข้างซับซ้อนมากกว่าหมากรุก ต่อมา AlphaGo ได้รับการปรับปรุงโดยทั่วไปให้กับเกมอื่น ๆ เช่นหมากรุกกับAlphaZero ; [66]และMuZero [67]เพื่อเล่นวิดีโอเกมต่างๆมากมายซึ่งก่อนหน้านี้ได้รับการจัดการแยกกัน[68]นอกเหนือจากเกมกระดาน โปรแกรมอื่น ๆ จัดการเกมข้อมูลที่ไม่สมบูรณ์ เช่นโป๊กเกอร์ในระดับที่เหนือมนุษย์พลุ (บอโป๊กเกอร์) [69]และเซเฟอุส (บอโป๊กเกอร์) [11]โปรดดู: เกมการเล่นทั่วไป
จากข้อมูลของ Jack Clark จากBloombergระบุว่าปี 2015 เป็นปีที่สำคัญสำหรับปัญญาประดิษฐ์โดยมีจำนวนโครงการซอฟต์แวร์ที่ใช้ AI ภายในGoogleเพิ่มขึ้นจาก "การใช้งานเป็นระยะ ๆ " ในปี 2555 เป็นมากกว่า 2,700 โครงการ นอกจากนี้คลาร์กยังนำเสนอข้อมูลที่เป็นข้อเท็จจริงซึ่งระบุถึงการปรับปรุง AI ตั้งแต่ปี 2555 ซึ่งได้รับการสนับสนุนโดยอัตราความผิดพลาดที่ลดลงในงานประมวลผลภาพ [70]เขาอ้างว่าสิ่งนี้มาจากการเพิ่มขึ้นของเครือข่ายประสาทเทียมที่มีราคาไม่แพงเนื่องจากโครงสร้างพื้นฐานการประมวลผลแบบคลาวด์ที่เพิ่มขึ้นและเครื่องมือวิจัยและชุดข้อมูลที่เพิ่มขึ้น [17]ตัวอย่างที่อ้างถึงอื่น ๆ ได้แก่ การพัฒนาระบบ Skype ของ Microsoft ที่สามารถแปลจากภาษาหนึ่งไปยังอีกภาษาหนึ่งโดยอัตโนมัติและระบบของ Facebook ที่สามารถอธิบายภาพให้คนตาบอดฟังได้ [70]ในการสำรวจปี 2017 บริษัท หนึ่งในห้ารายงานว่าพวกเขา "รวม AI ไว้ในข้อเสนอหรือกระบวนการบางอย่าง" [71] [72]ประมาณปี 2559 จีนเร่งระดมทุนจากรัฐบาลอย่างมาก เนื่องจากมีข้อมูลจำนวนมากและผลงานวิจัยที่เพิ่มขึ้นอย่างรวดเร็วผู้สังเกตการณ์บางคนเชื่อว่าอาจจะกลายเป็น "มหาอำนาจ AI" [73] [74]
ภายในปี 2020 ระบบประมวลผลภาษาธรรมชาติเช่นGPT-3ขนาดมหึมา(จากนั้นก็คือโครงข่ายประสาทเทียมที่ใหญ่ที่สุด) ได้จับคู่ประสิทธิภาพของมนุษย์ในเกณฑ์มาตรฐานที่มีอยู่แล้วแม้ว่าระบบจะไม่เข้าใจเนื้อหาของเกณฑ์มาตรฐาน [75] AlphaFold 2 (2020) ของ DeepMind แสดงให้เห็นถึงความสามารถในการระบุโครงสร้าง 3 มิติของโปรตีนในเวลาไม่กี่ชั่วโมงแทนที่จะเป็นเดือน การจดจำใบหน้าก้าวหน้าไปถึงที่ในบางสถานการณ์บางระบบอ้างว่ามีอัตราความแม่นยำ 99% [76]
พื้นฐาน
วิทยาการคอมพิวเตอร์ให้คำจำกัดความของการวิจัย AI ว่าเป็นการศึกษา " ตัวแทนอัจฉริยะ ": อุปกรณ์ใด ๆ ที่รับรู้สภาพแวดล้อมของมันและดำเนินการเพื่อเพิ่มโอกาสในการบรรลุเป้าหมาย [3]คำจำกัดความที่ละเอียดยิ่งขึ้นระบุลักษณะของ AI ว่า "ความสามารถของระบบในการตีความข้อมูลภายนอกอย่างถูกต้องเพื่อเรียนรู้จากข้อมูลดังกล่าวและใช้การเรียนรู้เหล่านั้นเพื่อบรรลุเป้าหมายและงานที่เฉพาะเจาะจงผ่านการปรับตัวที่ยืดหยุ่น" [77]
AI ทั่วไปจะวิเคราะห์สภาพแวดล้อมและดำเนินการเพื่อเพิ่มโอกาสในการประสบความสำเร็จ [3]ฟังก์ชันยูทิลิตี้ที่ตั้งใจไว้(หรือเป้าหมาย) ของ AI อาจเป็นเรื่องง่าย ("1 ถ้า AI ชนะเกมGo , 0 มิฉะนั้น") หรือซับซ้อน ("ดำเนินการทางคณิตศาสตร์คล้ายกับที่ประสบความสำเร็จในอดีต") เป้าหมายสามารถกำหนดหรือทำให้เกิดขึ้นได้อย่างชัดเจน หาก AI ได้รับการตั้งโปรแกรมสำหรับ " การเรียนรู้แบบเสริมกำลัง " เป้าหมายอาจถูกกระตุ้นโดยปริยายโดยการให้รางวัลพฤติกรรมบางประเภทหรือลงโทษผู้อื่น [a]อีกวิธีหนึ่งระบบวิวัฒนาการสามารถกระตุ้นเป้าหมายโดยใช้ " ฟังก์ชันการออกกำลังกาย " ในการกลายพันธุ์และจำลองระบบ AI ที่ให้คะแนนสูงได้ดีกว่าเช่นเดียวกับการที่สัตว์วิวัฒนาการมาเพื่อต้องการเป้าหมายบางอย่างโดยกำเนิดเช่นการหาอาหาร [78]ระบบ AI บางระบบเช่นเพื่อนบ้านที่ใกล้ที่สุดแทนที่จะใช้เหตุผลโดยการเปรียบเทียบระบบเหล่านี้ไม่ได้กำหนดเป้าหมายโดยทั่วไปยกเว้นในระดับที่เป้าหมายมีความหมายโดยนัยในข้อมูลการฝึกอบรมของพวกเขา [79]ระบบดังกล่าวยังคงสามารถเปรียบเทียบได้หากระบบที่ไม่ใช่เป้าหมายถูกจัดกรอบให้เป็นระบบที่ "เป้าหมาย" คือการบรรลุภารกิจการจัดประเภทแคบ ๆ ให้สำเร็จ [80]
AI มักจะหมุนรอบการใช้งานของอัลกอริทึม อัลกอริทึมคือชุดคำสั่งที่ไม่คลุมเครือซึ่งคอมพิวเตอร์เชิงกลสามารถดำเนินการได้ [b]อัลกอริทึมที่ซับซ้อนมักสร้างขึ้นเหนืออัลกอริทึมอื่น ๆ ที่ง่ายกว่า ตัวอย่างง่ายๆของอัลกอริทึมคือสูตรต่อไปนี้ (เหมาะสำหรับผู้เล่นคนแรก) สำหรับการเล่นที่tic-tac-toe : [81]
- หากมี "ภัยคุกคาม" (นั่นคือสองตัวติดต่อกัน) ให้ใช้สี่เหลี่ยมจัตุรัสที่เหลือ มิฉะนั้น,
- หากมีการย้าย "ส้อม" เพื่อสร้างภัยคุกคามสองครั้งพร้อมกันให้เล่นท่านั้น มิฉะนั้น,
- ใช้สี่เหลี่ยมจัตุรัสตรงกลางถ้าว่าง มิฉะนั้น,
- หากคู่ต่อสู้ของคุณเล่นในมุมหนึ่งให้เข้ามุมตรงข้าม มิฉะนั้น,
- ใช้มุมที่ว่างเปล่าถ้ามีอยู่ มิฉะนั้น,
- หาสี่เหลี่ยมว่าง ๆ
อัลกอริทึม AI จำนวนมากสามารถเรียนรู้จากข้อมูลได้ พวกเขาสามารถปรับปรุงตัวเองได้โดยการเรียนรู้การวิเคราะห์พฤติกรรมใหม่ ๆ(กลยุทธ์หรือ "กฎง่ายๆ" ที่ใช้งานได้ดีในอดีต) หรือสามารถเขียนอัลกอริทึมอื่น ๆ "ผู้เรียน" บางส่วนที่อธิบายไว้ด้านล่างรวมถึงเครือข่ายแบบเบย์ต้นไม้แห่งการตัดสินใจและเพื่อนบ้านที่ใกล้ที่สุดสามารถเรียนรู้ในทางทฤษฎี (ข้อมูลเวลาและหน่วยความจำที่ให้ข้อมูลที่ไม่มีที่สิ้นสุด) เรียนรู้ที่จะประมาณฟังก์ชันใด ๆรวมถึงฟังก์ชันทางคณิตศาสตร์ที่รวมกันที่จะอธิบายได้ดีที่สุด โลก. [ ต้องการอ้างอิง ]ดังนั้นผู้เรียนเหล่านี้จึงสามารถได้รับความรู้ที่เป็นไปได้ทั้งหมดโดยพิจารณาจากสมมติฐานที่เป็นไปได้ทั้งหมดและจับคู่กับข้อมูล ในทางปฏิบัติแทบจะเป็นไปไม่ได้ที่จะพิจารณาทุกความเป็นไปได้เนื่องจากปรากฏการณ์ " การระเบิดแบบผสมผสาน " ซึ่งเวลาที่ต้องใช้ในการแก้ปัญหาจะเพิ่มขึ้นอย่างทวีคูณ การวิจัย AI ส่วนใหญ่เกี่ยวข้องกับการหาวิธีระบุและหลีกเลี่ยงการพิจารณาความเป็นไปได้ในวงกว้างที่ไม่น่าจะเป็นประโยชน์ [82] [83]ตัวอย่างเช่นเมื่อดูแผนที่และกำลังมองหาเส้นทางขับรถที่สั้นที่สุดจากเดนเวอร์ไปยังนิวยอร์กในฝั่งตะวันออกในกรณีส่วนใหญ่สามารถข้ามไปดูเส้นทางใดก็ได้ผ่านซานฟรานซิสโกหรือพื้นที่อื่น ๆ ที่อยู่ไกลออกไปทางตะวันตก ดังนั้น AI ที่ใช้อัลกอริธึมการค้นหาเส้นทางเช่นA *สามารถหลีกเลี่ยงการระเบิดของ Combinatorial ที่จะตามมาหากทุกเส้นทางที่เป็นไปได้ต้องได้รับการพิจารณาอย่างรอบคอบ [84]
วิธีที่เร็วที่สุด (และเข้าใจง่ายที่สุด) สำหรับ AI คือสัญลักษณ์ (เช่นตรรกะที่เป็นทางการ): "ถ้าผู้ใหญ่ที่มีสุขภาพดีมีไข้ก็อาจเป็นไข้หวัดใหญ่ " แนวทางที่สองโดยทั่วไปมากขึ้นคือการอนุมานแบบเบย์ : "หากผู้ป่วยปัจจุบันมีไข้ให้ปรับความน่าจะเป็นที่พวกเขามีไข้หวัดใหญ่ในลักษณะดังกล่าว" แนวทางหลักประการที่สามซึ่งได้รับความนิยมอย่างมากในแอปพลิเคชัน AI ทางธุรกิจประจำคือตัวเปรียบเทียบเช่นSVMและเพื่อนบ้านที่ใกล้ที่สุด : "หลังจากตรวจสอบบันทึกของผู้ป่วยในอดีตที่รู้จักซึ่งอุณหภูมิอาการอายุและปัจจัยอื่น ๆ ส่วนใหญ่ตรงกับผู้ป่วยปัจจุบัน X% ของผู้ป่วยเหล่านั้นกลายเป็นไข้หวัดใหญ่ " แนวทางที่สี่ยากที่จะเข้าใจโดยสัญชาตญาณ แต่ได้รับแรงบันดาลใจจากวิธีการทำงานของกลไกของสมอง: วิธีเครือข่ายประสาทเทียมใช้ " เซลล์ประสาท " เทียมที่สามารถเรียนรู้โดยการเปรียบเทียบตัวเองกับผลลัพธ์ที่ต้องการและปรับเปลี่ยนจุดแข็งของการเชื่อมต่อระหว่างเซลล์ประสาทภายใน เพื่อ "เสริมสร้าง" การเชื่อมต่อที่ดูเหมือนจะมีประโยชน์ แนวทางหลักทั้งสี่นี้สามารถทับซ้อนกันและด้วยระบบวิวัฒนาการ ตัวอย่างเช่นตาข่ายประสาทสามารถเรียนรู้ที่จะทำการอนุมานเพื่อสรุปและเปรียบเทียบได้ บางระบบใช้วิธีการเหล่านี้หลายวิธีโดยปริยายหรือโดยชัดแจ้งควบคู่ไปกับอัลกอริทึม AI และไม่ใช่ AI อื่น ๆ อีกมากมาย แนวทางที่ดีที่สุดมักจะแตกต่างกันไปขึ้นอยู่กับปัญหา [85] [86]
อัลกอริทึมการเรียนรู้ทำงานบนพื้นฐานที่ว่ากลยุทธ์อัลกอริทึมและการอนุมานที่ทำงานได้ดีในอดีตมีแนวโน้มที่จะทำงานได้ดีต่อไปในอนาคต การอนุมานเหล่านี้สามารถเห็นได้ชัดเช่น "เนื่องจากดวงอาทิตย์ขึ้นทุกเช้าในช่วง 10,000 วันที่ผ่านมามันก็อาจจะขึ้นในเช้าวันพรุ่งนี้เช่นกัน" พวกมันสามารถปรับให้เหมาะสมได้เช่น "X% ของครอบครัวมีสายพันธุ์ที่แยกจากกันทางภูมิศาสตร์โดยมีสีที่แตกต่างกันดังนั้นจึงมีโอกาส Y% ที่หงส์ดำที่ยังไม่ได้ค้นพบ" ผู้เรียนยังทำงานบนพื้นฐานของ " Occam's razor ": ทฤษฎีที่ง่ายที่สุดที่อธิบายข้อมูลนั้นมีความคล้ายคลึงกันมากที่สุด ดังนั้นตามหลักการมีดโกนของ Occam ผู้เรียนจะต้องได้รับการออกแบบให้ชอบทฤษฎีที่ง่ายกว่าไปสู่ทฤษฎีที่ซับซ้อนยกเว้นในกรณีที่ทฤษฎีที่ซับซ้อนได้รับการพิสูจน์แล้วว่าดีกว่ามาก

การจัดการกับทฤษฎีที่ไม่ดีและซับซ้อนเกินไปซึ่งได้รับการปรับแต่งให้เหมาะสมกับข้อมูลการฝึกอบรมที่ผ่านมาทั้งหมดเรียกว่าการฟิตติ้งมากเกินไป ระบบจำนวนมากพยายามลดการใส่อุปกรณ์มากเกินไปโดยให้รางวัลแก่ทฤษฎีตามความเหมาะสมของข้อมูล แต่จะลงโทษทฤษฎีตามความซับซ้อนของทฤษฎี [87]นอกจากการฟิตติ้งแบบคลาสสิกมากเกินไปแล้วผู้เรียนยังสามารถทำให้ผิดหวังได้ด้วยการ "เรียนรู้บทเรียนที่ผิด" ตัวอย่างของเล่นคือลักษณนามภาพที่ฝึกเฉพาะภาพม้าสีน้ำตาลและแมวดำอาจสรุปได้ว่าแผ่นแปะสีน้ำตาลทั้งหมดน่าจะเป็นม้า [88]ตัวอย่างในโลกแห่งความเป็นจริงก็คือไม่เหมือนกับมนุษย์ตัวแยกประเภทรูปภาพในปัจจุบันมักไม่ได้ทำการตัดสินจากความสัมพันธ์เชิงพื้นที่ระหว่างส่วนประกอบของรูปภาพเป็นหลักและพวกเขาเรียนรู้ความสัมพันธ์ระหว่างพิกเซลที่มนุษย์ลืมเลือนไป แต่ก็ยังคงมีความสัมพันธ์กัน ด้วยภาพของวัตถุจริงบางประเภท การแก้ไขรูปแบบเหล่านี้บนรูปภาพที่ถูกต้องอาจส่งผลให้เกิดภาพ "ฝ่ายตรงข้าม" ที่ระบบจัดประเภทไม่ถูกต้อง [c] [89] [90]

เมื่อเทียบกับมนุษย์ AI ที่มีอยู่ขาดคุณสมบัติหลายประการของมนุษย์ " commonsense เหตุผล "; โดยเฉพาะอย่างยิ่งมนุษย์มีกลไกที่ทรงพลังในการหาเหตุผลเกี่ยวกับ " ฟิสิกส์ไร้เดียงสา " เช่นอวกาศเวลาและปฏิสัมพันธ์ทางกายภาพ ซึ่งช่วยให้แม้แต่เด็กเล็ก ๆ ก็สามารถอนุมานได้อย่างง่ายดายเช่น "ถ้าฉันหมุนปากกาออกจากโต๊ะปากกาจะตกลงบนพื้น" มนุษย์ยังมีกลไกที่ทรงพลังของ " จิตวิทยาชาวบ้าน " ที่ช่วยให้พวกเขาตีความประโยคที่เป็นภาษาธรรมชาติเช่น "สมาชิกสภาเมืองปฏิเสธใบอนุญาตให้ผู้ชุมนุมประท้วงเพราะพวกเขาสนับสนุนความรุนแรง" (AI ทั่วไปมีปัญหาในการแยกแยะว่าคนที่ถูกกล่าวหาว่าสนับสนุนหรือไม่ ความรุนแรงคือสมาชิกสภาหรือผู้ชุมนุม[91] [92] [93] ) การขาด "ความรู้ทั่วไป" นี้หมายความว่า AI มักจะทำผิดพลาดต่างจากที่มนุษย์ทำในรูปแบบที่ดูเหมือนจะไม่สามารถเข้าใจได้ ตัวอย่างเช่นรถยนต์ที่ขับเคลื่อนด้วยตัวเองที่มีอยู่ไม่สามารถให้เหตุผลเกี่ยวกับสถานที่ตั้งหรือความตั้งใจของคนเดินถนนในแบบที่มนุษย์ทำและต้องใช้รูปแบบการให้เหตุผลที่ไม่ใช่ของมนุษย์แทนเพื่อหลีกเลี่ยงอุบัติเหตุ [94] [95] [96]
ความท้าทาย
ความสามารถในการรับรู้ของสถาปัตยกรรมปัจจุบันมี จำกัด มากโดยใช้เพียงเวอร์ชันที่เรียบง่ายของสิ่งที่ปัญญาสามารถทำได้เท่านั้น ตัวอย่างเช่นจิตใจของมนุษย์ได้คิดหาเหตุผลที่อยู่เหนือการวัดและคำอธิบายเชิงตรรกะต่อเหตุการณ์ต่างๆในชีวิต สิ่งที่จะตรงไปตรงมาเป็นอย่างอื่นปัญหาที่ยากพอ ๆ กันอาจเป็นเรื่องท้าทายในการแก้ปัญหาด้วยการคำนวณซึ่งต่างจากการใช้ความคิดของมนุษย์ สิ่งนี้ก่อให้เกิดโมเดลสองประเภท: นักโครงสร้างและนักปฏิบัติงาน แบบจำลองโครงสร้างมีจุดมุ่งหมายเพื่อเลียนแบบการดำเนินการด้านสติปัญญาพื้นฐานของจิตใจอย่างหลวม ๆ เช่นการใช้เหตุผลและตรรกะ แบบจำลองการทำงานหมายถึงข้อมูลที่สัมพันธ์กันกับข้อมูลที่คำนวณได้ [97]
เป้าหมายการวิจัยโดยรวมของปัญญาประดิษฐ์คือการสร้างเทคโนโลยีที่ช่วยให้คอมพิวเตอร์และเครื่องจักรทำงานได้อย่างชาญฉลาด ปัญหาทั่วไปของการจำลอง (หรือการสร้าง) ปัญญาถูกแยกย่อยออกเป็นปัญหาย่อย สิ่งเหล่านี้ประกอบด้วยลักษณะเฉพาะหรือความสามารถที่นักวิจัยคาดหวังว่าระบบอัจฉริยะจะแสดง ลักษณะที่อธิบายด้านล่างนี้ได้รับความสนใจมากที่สุด [20]
การใช้เหตุผลการแก้ปัญหา
นักวิจัยรุ่นแรกได้พัฒนาอัลกอริทึมที่เลียนแบบการให้เหตุผลทีละขั้นตอนที่มนุษย์ใช้เมื่อพวกเขาไขปริศนาหรือทำการหักเงินเชิงตรรกะ [98]ในช่วงปลายปี 1980 และ 1990 การวิจัย AI ได้พัฒนาวิธีการจัดการกับความไม่แน่นอนข้อมูลหรือไม่สมบูรณ์จ้างแนวคิดจากความน่าจะเป็นและเศรษฐศาสตร์ [99]
อัลกอริทึมเหล่านี้พิสูจน์แล้วว่าไม่เพียงพอสำหรับการแก้ปัญหาการใช้เหตุผลจำนวนมากเนื่องจากพวกเขาประสบกับ "การระเบิดร่วมกัน": พวกมันช้าลงอย่างทวีคูณเมื่อปัญหาใหญ่ขึ้น [82]แม้แต่มนุษย์ก็แทบจะไม่ใช้การหักทีละขั้นตอนที่การวิจัย AI ในยุคแรกสามารถจำลองได้ พวกเขาแก้ปัญหาส่วนใหญ่โดยใช้การตัดสินที่รวดเร็วและใช้งานง่าย [100]
การแสดงความรู้

การแสดงความรู้[101]และวิศวกรรมความรู้[102]เป็นหัวใจสำคัญของการวิจัย AI แบบคลาสสิก "ระบบผู้เชี่ยวชาญ" บางระบบพยายามรวบรวมความรู้ที่ชัดเจนที่มีผู้เชี่ยวชาญในโดเมนแคบ ๆ นอกจากนี้บางโครงการพยายามรวบรวม "ความรู้ทั่วไป" ที่คนทั่วไปรู้จักกันในฐานข้อมูลที่มีความรู้มากมายเกี่ยวกับโลก ในบรรดาสิ่งที่ฐานความรู้ทั่วไปที่ครอบคลุมจะประกอบด้วยวัตถุคุณสมบัติหมวดหมู่และความสัมพันธ์ระหว่างวัตถุ [103]สถานการณ์เหตุการณ์สถานะและเวลา; [104]เหตุและผล; [105]ความรู้เกี่ยวกับความรู้ (สิ่งที่เรารู้เกี่ยวกับสิ่งที่คนอื่นรู้); [106]และโดเมนอื่น ๆ อีกมากมายที่มีการวิจัยน้อย การเป็นตัวแทนของ "สิ่งที่มีอยู่" คือภววิทยา : ชุดของวัตถุความสัมพันธ์แนวคิดและคุณสมบัติที่อธิบายอย่างเป็นทางการเพื่อให้ตัวแทนซอฟต์แวร์สามารถตีความได้ ความหมายเหล่านี้จะถูกจับเป็นตรรกะคำอธิบายแนวคิดบทบาทและบุคคลและมักจะนำมาใช้เป็นเรียน, คุณสมบัติและบุคคลในอภิปรัชญาเว็บภาษา [107]ออนโทโลยีทั่วไปส่วนใหญ่เรียกว่าออนโทโลยีชั้นสูงซึ่งพยายามสร้างรากฐานสำหรับความรู้อื่น ๆ ทั้งหมด[108]โดยทำหน้าที่เป็นสื่อกลางระหว่างออนโทโลยีของโดเมนที่ครอบคลุมความรู้เฉพาะเกี่ยวกับโดเมนความรู้เฉพาะ (สาขาที่สนใจหรือประเด็นที่น่ากังวล) . การแสดงความรู้อย่างเป็นทางการดังกล่าวสามารถใช้ในการจัดทำดัชนีและการดึงเนื้อหาตามเนื้อหา[109]การตีความฉาก[110]การสนับสนุนการตัดสินใจทางคลินิก[111] การค้นพบความรู้ (การขุด "น่าสนใจ" และการอนุมานที่นำไปใช้ได้จริงจากฐานข้อมูลขนาดใหญ่) [112]และ พื้นที่อื่น ๆ [113]
ปัญหาที่ยากที่สุดในการแสดงความรู้ ได้แก่ :
- การให้เหตุผลเริ่มต้นและ ปัญหาคุณสมบัติ
- หลายสิ่งที่ผู้คนรู้จักอยู่ในรูปแบบของ "สมมติฐานการทำงาน" ตัวอย่างเช่นหากมีนกมาสนทนากันผู้คนมักจะนึกภาพสัตว์ขนาดเท่ากำปั้นที่ร้องและบินได้ สิ่งเหล่านี้ไม่เป็นความจริงเกี่ยวกับนกทั้งหมด จอห์นแม็คคาร์ธีระบุปัญหานี้ในปี พ.ศ. 2512 [114]ว่าเป็นปัญหาคุณสมบัติ: สำหรับกฎทั่วไปที่นักวิจัย AI สนใจที่จะเป็นตัวแทนมีแนวโน้มที่จะมีข้อยกเว้นจำนวนมาก แทบไม่มีอะไรเป็นจริงหรือเท็จในแบบที่ตรรกะนามธรรมต้องการ การวิจัย AI ได้สำรวจวิธีแก้ปัญหานี้หลายวิธี [115]
- ความรู้ทั่วไป
- จำนวนปรมาณูข้อเท็จจริงที่คนทั่วไปรู้นั้นมีมาก โครงการวิจัยที่พยายามสร้างฐานความรู้ที่สมบูรณ์ของ ความรู้ทั่วไป (เช่น Cyc ) ต้องใช้วิศวกรรมออนโทโลยีที่ใช้แรงงานจำนวนมหาศาลซึ่ง จะต้องสร้างขึ้นด้วยมือทีละแนวคิดที่ซับซ้อน [116]
- รูปแบบย่อยของความรู้ทั่วไป
- สิ่งที่ผู้คนส่วนใหญ่รู้ไม่ได้แสดงเป็น "ข้อเท็จจริง" หรือ "ข้อความ" ที่พวกเขาสามารถแสดงออกด้วยวาจาได้ ตัวอย่างเช่นนักหมากรุกจะหลีกเลี่ยงตำแหน่งหมากรุกโดยเฉพาะเพราะ "รู้สึกโล่งเกินไป" [117]หรือนักวิจารณ์ศิลปะสามารถดูรูปปั้นและรู้ว่าเป็นของปลอม [118] สิ่งเหล่านี้เป็นสัญชาตญาณหรือแนวโน้มที่ไม่รู้สึกตัวและเป็นสัญลักษณ์ย่อยในสมองของมนุษย์ [119]ความรู้เช่นนี้แจ้งสนับสนุนและให้บริบทสำหรับความรู้เชิงสัญลักษณ์และมีสติ เช่นเดียวกับปัญหาที่เกี่ยวข้องกับการให้เหตุผลย่อยสัญลักษณ์ก็หวังว่า อยู่ AI , ปัญญาประดิษฐ์หรือ สถิติ AIจะให้วิธีการที่จะเป็นตัวแทนของความรู้นี้ [119]
การวางแผน

ตัวแทนที่ชาญฉลาดต้องสามารถกำหนดเป้าหมายและบรรลุเป้าหมายได้ [120]พวกเขาต้องการวิธีที่จะเห็นภาพอนาคตซึ่งเป็นตัวแทนของสถานะของโลกและสามารถคาดเดาได้ว่าการกระทำของพวกเขาจะเปลี่ยนแปลงไปอย่างไร - และสามารถเลือกทางเลือกที่เพิ่มประโยชน์สูงสุดให้กับประโยชน์ (หรือ "มูลค่า") ของทางเลือกที่มีอยู่ [121]
ในปัญหาการวางแผนแบบคลาสสิกตัวแทนสามารถสันนิษฐานได้ว่าเป็นระบบเดียวที่ทำหน้าที่ในโลกทำให้ตัวแทนสามารถมั่นใจได้ถึงผลที่ตามมาจากการกระทำของมัน [122]อย่างไรก็ตามหากตัวแทนไม่ใช่นักแสดงเพียงคนเดียวก็ต้องให้ตัวแทนสามารถให้เหตุผลได้ภายใต้ความไม่แน่นอน สิ่งนี้เรียกร้องให้มีตัวแทนที่ไม่เพียง แต่สามารถประเมินสภาพแวดล้อมและทำการคาดการณ์เท่านั้น แต่ยังประเมินการคาดการณ์และปรับตัวตามการประเมินของมันด้วย [123]
การวางแผนหลายตัวแทนใช้ความร่วมมือและการแข่งขันของตัวแทนจำนวนมากเพื่อให้บรรลุเป้าหมายที่กำหนด พฤติกรรมฉุกเฉินเช่นนี้จะใช้ขั้นตอนวิธีวิวัฒนาการและความฉลาดแบบกลุ่ม [124]
การเรียนรู้

แมชชีนเลิร์นนิง (ML) ซึ่งเป็นแนวคิดพื้นฐานของการวิจัย AI ตั้งแต่เริ่มก่อตั้งภาคสนาม[d]คือการศึกษาอัลกอริทึมคอมพิวเตอร์ที่ปรับปรุงโดยอัตโนมัติผ่านประสบการณ์ [e] [127]
การเรียนรู้ที่ไม่มีผู้ดูแลคือความสามารถในการค้นหารูปแบบในกระแสข้อมูลเข้าโดยไม่ต้องให้มนุษย์ติดป้ายกำกับปัจจัยการผลิตก่อน การเรียนรู้ภายใต้การดูแลมีทั้งการจำแนกประเภทและการถดถอยเชิงตัวเลขซึ่งต้องใช้มนุษย์ในการติดป้ายกำกับข้อมูลอินพุตก่อน การจัดหมวดหมู่ใช้เพื่อพิจารณาว่าสิ่งที่อยู่ในหมวดหมู่ใดและเกิดขึ้นหลังจากโปรแกรมเห็นตัวอย่างของสิ่งต่างๆจากหลายหมวดหมู่ การถดถอยคือความพยายามในการสร้างฟังก์ชันที่อธิบายความสัมพันธ์ระหว่างอินพุตและเอาต์พุตและคาดการณ์ว่าเอาต์พุตควรเปลี่ยนไปอย่างไรเมื่ออินพุตเปลี่ยนไป [127]ทั้งลักษณนามและผู้เรียนการถดถอยสามารถมองว่าเป็น "ตัวประมาณฟังก์ชัน" ที่พยายามเรียนรู้ฟังก์ชันที่ไม่รู้จัก ตัวอย่างเช่นตัวจำแนกสแปมสามารถมองว่าเป็นการเรียนรู้ฟังก์ชันที่จับคู่จากข้อความของอีเมลกับหนึ่งในสองหมวดหมู่ "สแปม" หรือ "ไม่ใช่สแปม" ทฤษฎีการเรียนรู้การคำนวณสามารถประเมินผู้เรียนโดยคอมพิวเตอร์ที่ซับซ้อนโดยความซับซ้อนตัวอย่าง (เท่าใดข้อมูลจะถูกต้อง) หรือโดยความคิดอื่น ๆ ของการเพิ่มประสิทธิภาพ [128]ในการเรียนรู้แบบเสริมกำลัง[129]ตัวแทนจะได้รับรางวัลสำหรับการตอบสนองที่ดีและถูกลงโทษสำหรับคนที่ไม่ดี ตัวแทนใช้ลำดับของรางวัลและการลงโทษนี้เพื่อกำหนดกลยุทธ์สำหรับการดำเนินงานในพื้นที่ที่มีปัญหา
การประมวลผลภาษาธรรมชาติ

การประมวลผลภาษาธรรมชาติ[130] (NLP) ช่วยให้เครื่องอ่านและเข้าใจภาษามนุษย์ได้ ระบบประมวลผลภาษาธรรมชาติที่มีประสิทธิภาพเพียงพอจะเปิดใช้งานอินเทอร์เฟซผู้ใช้ที่เป็นภาษาธรรมชาติและการได้มาซึ่งความรู้โดยตรงจากแหล่งที่เขียนโดยมนุษย์เช่นข้อความของ newswire บางโปรแกรมตรงไปตรงมาของการประมวลผลภาษาธรรมชาติรวมถึงการดึงข้อมูล , การทำเหมืองข้อความ , การตอบคำถามและการแปลภาษาด้วยเครื่อง [131]แนวทางปัจจุบันจำนวนมากใช้ความถี่ที่เกิดร่วมของคำเพื่อสร้างการแสดงข้อความในรูปแบบวากยสัมพันธ์ กลยุทธ์ "การระบุคีย์เวิร์ด" สำหรับการค้นหาเป็นที่นิยมและสามารถปรับขนาดได้ แต่โง่ ข้อความค้นหา "สุนัข" อาจตรงกับเอกสารที่มีคำว่า "สุนัข" ตามตัวอักษรเท่านั้นและพลาดเอกสารที่มีคำว่า "พุดเดิ้ล" กลยุทธ์ "ความสัมพันธ์คำศัพท์" ใช้การเกิดขึ้นของคำต่างๆเช่น "อุบัติเหตุ" เพื่อประเมินความรู้สึกของเอกสาร แนวทาง NLP ทางสถิติสมัยใหม่สามารถรวมกลยุทธ์เหล่านี้ทั้งหมดเข้าด้วยกันและอื่น ๆ และมักจะบรรลุความแม่นยำที่ยอมรับได้ในระดับหน้าหรือย่อหน้า นอกเหนือจาก NLP เชิงความหมายแล้วเป้าหมายสูงสุดของ NLP แบบ "เล่าเรื่อง" คือการรวบรวมความเข้าใจอย่างถ่องแท้เกี่ยวกับเหตุผลทั่วไป [132]ภายในปี 2019 สถาปัตยกรรมการเรียนรู้เชิงลึกที่ใช้หม้อแปลงสามารถสร้างข้อความที่สอดคล้องกันได้ [133]
การรับรู้

การรับรู้ของเครื่องจักร[134]คือความสามารถในการใช้อินพุตจากเซ็นเซอร์ (เช่นกล้อง (สเปกตรัมที่มองเห็นได้หรืออินฟราเรด) ไมโครโฟนสัญญาณไร้สายและไลดาร์ที่ใช้งานโซนาร์เรดาร์และเซ็นเซอร์สัมผัส ) เพื่อสรุปแง่มุมต่างๆของโลก ใช้งานรวมถึงการรู้จำเสียง , [135] การจดจำใบหน้าและการรับรู้วัตถุ [136] การ มองเห็นด้วยคอมพิวเตอร์คือความสามารถในการวิเคราะห์การป้อนข้อมูลด้วยภาพ ข้อมูลดังกล่าวมักจะคลุมเครือ คนเดินเท้าขนาดยักษ์สูงห้าสิบเมตรที่อยู่ไกลออกไปอาจสร้างพิกเซลเช่นเดียวกับคนเดินเท้าขนาดปกติที่อยู่ใกล้เคียงซึ่งต้องให้ AI ตัดสินความเป็นไปได้และความสมเหตุสมผลของการตีความที่แตกต่างกันตัวอย่างเช่นโดยใช้ "แบบจำลองวัตถุ" เพื่อประเมินว่า ไม่มีคนเดินเท้าห้าสิบเมตร [137]
การเคลื่อนไหวและการจัดการ
AI ถูกใช้อย่างมากในวิทยาการหุ่นยนต์ [138]แขนกลหุ่นยนต์ขั้นสูงและหุ่นยนต์อุตสาหกรรมอื่น ๆ ที่ใช้กันอย่างแพร่หลายในโรงงานสมัยใหม่สามารถเรียนรู้จากประสบการณ์เกี่ยวกับวิธีการเคลื่อนไหวอย่างมีประสิทธิภาพแม้ว่าจะมีแรงเสียดทานและการลื่นไถลของเกียร์ก็ตาม [139]หุ่นยนต์เคลื่อนที่สมัยใหม่เมื่อได้รับสภาพแวดล้อมที่เล็กนิ่งและมองเห็นได้สามารถระบุตำแหน่งและจัดทำแผนที่สภาพแวดล้อมได้อย่างง่ายดาย อย่างไรก็ตามสภาพแวดล้อมแบบไดนามิกเช่น (ในการส่องกล้อง ) ภายในร่างกายที่หายใจของผู้ป่วยก่อให้เกิดความท้าทายมากขึ้น การวางแผนการเคลื่อนไหวเป็นกระบวนการในการแบ่งงานการเคลื่อนไหวออกเป็น "แบบดั้งเดิม" เช่นการเคลื่อนไหวร่วมกันของแต่ละบุคคล การเคลื่อนไหวดังกล่าวมักเกี่ยวข้องกับการเคลื่อนไหวที่สอดคล้องกันซึ่งเป็นกระบวนการที่การเคลื่อนไหวจำเป็นต้องรักษาการสัมผัสทางกายภาพกับวัตถุ [140] [141] [142] ความขัดแย้งของ Moravecกล่าวโดยทั่วไปว่าความสามารถในการเซ็นเซอร์ระดับต่ำที่มนุษย์ยอมรับนั้นเป็นสิ่งที่ตรงกันข้ามและยากที่จะตั้งโปรแกรมให้เป็นหุ่นยนต์ ความขัดแย้งนี้ได้รับการตั้งชื่อตามHans Moravecซึ่งระบุไว้ในปี 1988 ว่า "มันค่อนข้างง่ายที่จะทำให้คอมพิวเตอร์แสดงประสิทธิภาพระดับผู้ใหญ่ในการทดสอบสติปัญญาหรือการเล่นหมากฮอสและยากหรือเป็นไปไม่ได้ที่จะให้ทักษะของเด็กหนึ่งขวบเมื่อมัน มาที่การรับรู้และความคล่องตัว ". [143] [144]นี่คือสาเหตุที่แตกต่างจากหมากฮอสความชำนาญทางกายภาพเป็นเป้าหมายโดยตรงของการคัดเลือกโดยธรรมชาติเป็นเวลาหลายล้านปี [145]
ความฉลาดทางสังคม

ความขัดแย้งของ Moravec สามารถขยายไปสู่ความฉลาดทางสังคมได้หลายรูปแบบ [147] [148]การประสานงานแบบหลายตัวแทนของยานยนต์อิสระยังคงเป็นปัญหาที่ยากลำบาก [149] ที่ส่งผลต่อการใช้คอมพิวเตอร์เป็นร่มสหวิทยาการว่าระบบประกอบด้วยซึ่งตระหนักตีความกระบวนการหรือมนุษย์จำลองผลกระทบต่อ [150] [151] [152]ความสำเร็จระดับปานกลางที่เกี่ยวข้องกับการประมวลผลเชิงอารมณ์ ได้แก่การวิเคราะห์ความรู้สึกที่เป็นข้อความและเมื่อเร็ว ๆ นี้การวิเคราะห์ผลกระทบต่อเนื่องหลายรูปแบบ (ดูการวิเคราะห์ความรู้สึกหลายรูปแบบ ) โดย AI จะจำแนกประเภทของผลกระทบที่แสดงโดยเรื่องที่บันทึกวิดีโอ [153]
ในระยะยาวทักษะทางสังคมและความเข้าใจในอารมณ์ของมนุษย์และทฤษฎีเกมจะมีประโยชน์ต่อตัวแทนทางสังคม ความสามารถในการทำนายการกระทำของผู้อื่นโดยการเข้าใจแรงจูงใจและสภาวะทางอารมณ์จะทำให้ตัวแทนตัดสินใจได้ดีขึ้น บางระบบคอมพิวเตอร์อารมณ์ของมนุษย์เลียนแบบและการแสดงออกให้ปรากฏความไวต่อการเปลี่ยนแปลงทางอารมณ์ของการปฏิสัมพันธ์ของมนุษย์หรือมิฉะนั้นความสะดวกในการสื่อสารระหว่างมนุษย์กับคอมพิวเตอร์ [154]ในทำนองเดียวกันผู้ช่วยเสมือนบางคนได้รับการตั้งโปรแกรมให้พูดในเชิงสนทนาหรือแม้แต่ล้อเล่นอย่างมีอารมณ์ขัน สิ่งนี้มีแนวโน้มที่จะทำให้ผู้ใช้ไร้เดียงสามีความคิดที่ไม่สมจริงว่าตัวแทนคอมพิวเตอร์ที่มีอยู่นั้นมีความชาญฉลาดเพียงใด [155]
ปัญญาทั่วไป
ในอดีตโครงการต่างๆเช่นฐานความรู้ Cyc (1984–) และการริเริ่มระบบคอมพิวเตอร์ยุคที่ 5 ของญี่ปุ่น(1982–1992) พยายามที่จะครอบคลุมความรู้ความเข้าใจของมนุษย์ในวงกว้าง โครงการแรก ๆ เหล่านี้ล้มเหลวในการหลีกหนีข้อ จำกัด ของแบบจำลองตรรกะเชิงสัญลักษณ์ที่ไม่ใช่เชิงปริมาณและเมื่อมองย้อนกลับไปก็ประเมินความยากลำบากของ AI ข้ามโดเมนต่ำไปมาก ปัจจุบันนักวิจัย AI ในปัจจุบันส่วนใหญ่ทำงานแทนแอปพลิเคชัน "AI แบบแคบ" ที่สามารถเชื่อมต่อได้ (เช่นการวินิจฉัยทางการแพทย์หรือการนำทางรถยนต์) [156]นักวิจัยหลายคนคาดการณ์ว่าการทำงานแบบ "AI ที่แคบ" ในแต่ละโดเมนจะถูกรวมเข้ากับเครื่องจักรที่มีปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งรวมเอาทักษะแคบ ๆ ส่วนใหญ่ที่กล่าวถึงในบทความนี้เข้าด้วยกันและในบางจุดอาจเกินความสามารถของมนุษย์ด้วยซ้ำ ในพื้นที่เหล่านี้ส่วนใหญ่หรือทั้งหมด [26] [157]ความก้าวหน้ามากมายมีความสำคัญโดยทั่วไปข้ามโดเมน ตัวอย่างหนึ่งที่รายละเอียดสูงคือDeepMindในยุค 2010 พัฒนา "ทั่วไปปัญญาประดิษฐ์" ที่สามารถเรียนรู้จำนวนมากที่มีความหลากหลายAtariเกมบนของตัวเองและต่อมาได้รับการพัฒนาที่แตกต่างของระบบที่ประสบความสำเร็จในการเรียนรู้ตามลำดับ [158] [159] [160]นอกเหนือจากการถ่ายทอดการเรียนรู้แล้ว[161]นวัตกรรม AGI เชิงสมมุติอาจรวมถึงการพัฒนาสถาปัตยกรรมสะท้อนแสงที่สามารถมีส่วนร่วมในการตัดสินใจเชิงทฤษฎีและการหาวิธี "รวบรวม" ฐานความรู้ที่ครอบคลุมจาก ทั้งที่ไม่มีโครงสร้างเว็บ [162]บางคนโต้แย้งว่าแนวคิดบางอย่าง (ปัจจุบันยังไม่ได้ค้นพบ) ตรงไปตรงมา แต่ยากทางคณิตศาสตร์ "อัลกอริทึมหลัก" อาจนำไปสู่ AGI [163]ในที่สุดแนวทาง "ฉุกเฉิน" เพียงไม่กี่วิธีที่จะจำลองความฉลาดของมนุษย์อย่างใกล้ชิดมากและเชื่อว่าลักษณะของมนุษย์เช่นสมองเทียมหรือพัฒนาการของเด็กจำลองสักวันหนึ่งอาจถึงจุดวิกฤตที่ปัญญาทั่วไปปรากฏขึ้น [164] [165]
ปัญหาหลายอย่างในบทความนี้อาจต้องใช้หน่วยสืบราชการลับทั่วไปหากเครื่องจักรสามารถแก้ปัญหาได้เช่นเดียวกับที่ผู้คนทำ ตัวอย่างเช่นแม้แต่งานที่ตรงไปตรงมาเฉพาะเจาะจงเช่นการแปลด้วยเครื่องต้องการให้เครื่องอ่านและเขียนในทั้งสองภาษา ( NLP ) ทำตามข้อโต้แย้ง ( เหตุผล ) ของผู้เขียนรู้ว่ากำลังพูดถึงอะไร ( ความรู้ ) และทำซ้ำต้นฉบับของผู้เขียนอย่างซื่อสัตย์ เจตนา ( ความฉลาดทางสังคม ) ปัญหาเช่นการแปลด้วยเครื่องจะถือว่าเป็น " AI-complete " เนื่องจากปัญหาเหล่านี้ทั้งหมดต้องได้รับการแก้ไขพร้อมกันเพื่อให้ได้ประสิทธิภาพของเครื่องในระดับมนุษย์
แนวทาง
ไม่มีทฤษฎีหรือกระบวนทัศน์การรวมที่เป็นหนึ่งเดียวที่เป็นแนวทางในการวิจัย AI นักวิจัยไม่เห็นด้วยในหลายประเด็น [f]คำถามที่มีมายาวนานที่สุดสองสามข้อที่ยังไม่มีคำตอบคือปัญญาประดิษฐ์ควรจำลองความฉลาดทางธรรมชาติโดยการศึกษาจิตวิทยาหรือประสาทชีววิทยาหรือไม่? หรือชีววิทยาของมนุษย์ไม่เกี่ยวข้องกับการวิจัย AI เนื่องจากชีววิทยาของนกเป็นวิศวกรรมการบิน ? [23]สามารถอธิบายพฤติกรรมที่ชาญฉลาดโดยใช้หลักการที่เรียบง่ายและสง่างาม (เช่นตรรกะหรือการเพิ่มประสิทธิภาพ ) ได้หรือไม่? หรือจำเป็นต้องแก้ปัญหาที่ไม่เกี่ยวข้องจำนวนมาก? [24]
ไซเบอร์เนติกส์และการจำลองสมอง
ในปี 1940 และปี 1950 จำนวนของนักวิจัยสำรวจการเชื่อมต่อระหว่างชีววิทยา , ทฤษฎีสารสนเทศและไซเบอร์เนติกส์ บางส่วนของพวกเครื่องที่ใช้เครือข่ายอิเล็กทรอนิกส์ที่จะแสดงปัญญาพื้นฐานเช่นสร้างดับบลิวสีเทาวอลเตอร์ 's เต่าและจอห์นส์ฮอปกินส์สัตว์ นักวิจัยเหล่านี้หลายคนรวมตัวกันเพื่อการประชุมของ Teleological Society ที่Princeton UniversityและRatio Clubในอังกฤษ [167]ในปีพ. ศ. 2503 แนวทางนี้ส่วนใหญ่ถูกละทิ้งแม้ว่าองค์ประกอบต่างๆจะได้รับการฟื้นฟูในช่วงทศวรรษที่ 1980
สัญลักษณ์
เมื่อสามารถเข้าถึงคอมพิวเตอร์ดิจิทัลได้ในช่วงกลางทศวรรษ 1950 การวิจัยของ AI จึงเริ่มสำรวจความเป็นไปได้ที่สติปัญญาของมนุษย์จะลดลงเป็นการจัดการกับสัญลักษณ์ การวิจัยเป็นศูนย์กลางในสามสถาบัน: มหาวิทยาลัย Carnegie Mellon , Stanfordและเอ็มไอทีและตามที่อธิบายไว้ด้านล่างแต่ละคนพัฒนารูปแบบของตัวเองของการวิจัย John Haugelandตั้งชื่อแนวทางเชิงสัญลักษณ์เหล่านี้ให้กับ AI ว่า "AI แบบเก่าที่ดี" หรือ " GOFAI " [168]ในช่วงทศวรรษ 1960 แนวทางเชิงสัญลักษณ์ประสบความสำเร็จอย่างมากในการจำลอง "การคิด" ระดับสูงในโปรแกรมสาธิตขนาดเล็ก แนวทางที่อาศัยไซเบอร์เนติกส์หรือเครือข่ายประสาทเทียมถูกละทิ้งหรือผลักดันให้อยู่เบื้องหลัง [g]นักวิจัยในทศวรรษ 1960 และ 1970 เชื่อว่าแนวทางเชิงสัญลักษณ์ในที่สุดจะประสบความสำเร็จในการสร้างเครื่องจักรที่มีปัญญาประดิษฐ์ทั่วไปและถือว่านี่คือเป้าหมายของสาขาของพวกเขา
การจำลองความรู้ความเข้าใจ
นักเศรษฐศาสตร์เฮอร์เบิร์ไซมอนและอัลเลน Newellศึกษาทักษะการแก้ปัญหาของมนุษย์และความพยายามที่จะทำพิธีพวกเขาและงานของพวกเขาวางรากฐานของเขตของปัญญาประดิษฐ์เช่นเดียวกับที่วิทยาศาสตร์พุทธิปัญญา , การดำเนินงานวิจัยและวิทยาศาสตร์การจัดการ ทีมวิจัยของพวกเขาใช้ผลการทดลองทางจิตวิทยาเพื่อพัฒนาโปรแกรมที่จำลองเทคนิคที่ผู้คนใช้ในการแก้ปัญหา ประเพณีนี้มีศูนย์กลางอยู่ที่มหาวิทยาลัยคาร์เนกีเมลลอนในที่สุดก็จะสิ้นสุดลงในการพัฒนาสถาปัตยกรรมทะยานในช่วงกลางทศวรรษที่ 1980 [169] [170]
ตามตรรกะ
ต่างจาก Simon และ Newell จอห์นแม็คคาร์ธีรู้สึกว่าเครื่องจักรไม่จำเป็นต้องจำลองความคิดของมนุษย์ แต่ควรพยายามหาสาระสำคัญของการให้เหตุผลเชิงนามธรรมและการแก้ปัญหาแทนโดยไม่คำนึงว่าผู้คนจะใช้อัลกอริทึมเดียวกันหรือไม่ [23]ในห้องปฏิบัติการของเขาที่สแตนฟอ ( เรือ ) เน้นการใช้อย่างเป็นทางการตรรกะในการแก้ปัญหาที่หลากหลายของปัญหารวมถึงการแทนความรู้ , การวางแผนและการเรียนรู้ [171]ลอจิกยังเป็นจุดสำคัญของการทำงานที่ที่มหาวิทยาลัยเอดินเบอระและที่อื่น ๆ ในยุโรปซึ่งนำไปสู่การพัฒนาของภาษาการเขียนโปรแกรมเปิดฉากและวิทยาศาสตร์ของโปรแกรมตรรกะ [172]
ต่อต้านตรรกะหรือสกปรก
นักวิจัยจากMIT (เช่นMarvin MinskyและSeymour Papert ) [173]พบว่าการแก้ปัญหาที่ยากลำบากในการมองเห็นและการประมวลผลภาษาที่เป็นธรรมชาตินั้นจำเป็นต้องใช้วิธีแก้ปัญหาแบบเฉพาะกิจ - พวกเขาแย้งว่าไม่มีหลักการง่ายๆ (เช่นตรรกะ ) ที่จะจับทุกแง่มุมของความฉลาด พฤติกรรม. โรเจอร์แชงก์อธิบายของพวกเขา "ต่อต้านตรรกะ" วิธีการเป็น " ยู่ยี่ " (เมื่อเทียบกับ " เรียบร้อยกระบวนทัศน์" ที่มหาวิทยาลัยเชียงใหม่และ Stanford) [24] ฐานความรู้ทั่วไป (เช่นCycของDoug Lenat ) เป็นตัวอย่างของ AI ที่ "สกปรก" เนื่องจากต้องสร้างขึ้นด้วยมือแนวคิดที่ซับซ้อนทีละขั้นตอน [174]
อิงความรู้
เมื่อคอมพิวเตอร์ที่มีความทรงจำขนาดใหญ่เริ่มใช้งานได้ในราวปี 1970 นักวิจัยจากทั้งสามประเพณีเริ่มสร้างความรู้ให้กับแอปพลิเคชัน AI [175] "การปฏิวัติความรู้" นี้นำไปสู่การพัฒนาและการปรับใช้ระบบผู้เชี่ยวชาญ (แนะนำโดยEdward Feigenbaum ) ซึ่งเป็นซอฟต์แวร์ AI รูปแบบแรกที่ประสบความสำเร็จอย่างแท้จริง [52]องค์ประกอบหลักของสถาปัตยกรรมระบบสำหรับระบบผู้เชี่ยวชาญทั้งหมดคือฐานความรู้ซึ่งจัดเก็บข้อเท็จจริงและกฎเกณฑ์ต่างๆที่แสดงให้เห็นถึง AI [176]การปฏิวัติความรู้ยังได้รับแรงผลักดันจากการตระหนักว่าความรู้จำนวนมหาศาลจะต้องใช้โดยแอพพลิเคชั่น AI ง่ายๆจำนวนมาก
สัญลักษณ์ย่อย
โดยปี 1980 ความคืบหน้าในสัญลักษณ์ AI ดูเหมือนจะแผงลอยและหลายคนเชื่อว่าระบบสัญลักษณ์จะไม่สามารถที่จะเลียนแบบกระบวนการทั้งหมดของการรับรู้ของมนุษย์โดยเฉพาะอย่างยิ่งการรับรู้ , หุ่นยนต์, การเรียนรู้และการจดจำรูปแบบ นักวิจัยจำนวนหนึ่งเริ่มมองหาแนวทาง "สัญลักษณ์ย่อย" สำหรับปัญหา AI ที่เฉพาะเจาะจง [25]วิธีการเชิงสัญลักษณ์ย่อยจัดการเพื่อเข้าถึงหน่วยสืบราชการลับโดยไม่มีการนำเสนอความรู้ที่เฉพาะเจาะจง
ปัญญาที่เป็นตัวเป็นตน
ซึ่งรวมถึงการเป็นตัวเป็นตน , อยู่ , พฤติกรรมตามและNouvelle AI นักวิจัยจากสาขาหุ่นยนต์ที่เกี่ยวข้องเช่นRodney Brooksปฏิเสธ AI เชิงสัญลักษณ์และมุ่งเน้นไปที่ปัญหาพื้นฐานทางวิศวกรรมที่จะทำให้หุ่นยนต์เคลื่อนที่และอยู่รอดได้ [177]งานของพวกเขาได้ฟื้นฟูมุมมองที่ไม่ใช่สัญลักษณ์ของนักวิจัยไซเบอร์เนติกส์รุ่นแรก ๆของทศวรรษ 1950 และนำทฤษฎีการควบคุมมาใช้ใน AI อีกครั้ง สิ่งนี้เกิดขึ้นพร้อมกับการพัฒนาวิทยานิพนธ์ด้านจิตใจที่เป็นตัวเป็นตนในสาขาที่เกี่ยวข้องของวิทยาศาสตร์การรับรู้ : ความคิดที่ว่าแง่มุมของร่างกาย (เช่นการเคลื่อนไหวการรับรู้และการมองเห็น) เป็นสิ่งจำเป็นสำหรับสติปัญญาที่สูงขึ้น
ภายในหุ่นยนต์พัฒนาการจะมีการใช้แนวทางการเรียนรู้เพื่อพัฒนาการเพื่อให้หุ่นยนต์สามารถสะสมทักษะใหม่ ๆ ผ่านการสำรวจตนเองโดยอิสระปฏิสัมพันธ์ทางสังคมกับครูที่เป็นมนุษย์และการใช้กลไกการนำทาง (การเรียนรู้อย่างกระตือรือร้นการเจริญเติบโตการทำงานร่วมกันของมอเตอร์ ฯลฯ ) [178] [179] [180] [181]
ความฉลาดในการคำนวณและการประมวลผลแบบอ่อน
ความสนใจในโครงข่ายประสาทเทียมและ " การเชื่อมต่อ " ได้รับการฟื้นฟูโดยDavid Rumelhartและคนอื่น ๆ ในช่วงกลางทศวรรษที่ 1980 [182] เครือข่ายประสาทเทียมเป็นตัวอย่างของการประมวลผลแบบอ่อนซึ่งเป็นวิธีการแก้ปัญหาที่ไม่สามารถแก้ไขได้ด้วยความแน่นอนเชิงตรรกะที่สมบูรณ์และวิธีการแก้ปัญหาโดยประมาณมักจะเพียงพอ อื่น ๆคอมพิวเตอร์นุ่มวิธีการ AI รวมถึงระบบเลือน , ทฤษฎีระบบสีเทา , การคำนวณวิวัฒนาการและเครื่องมือทางสถิติจำนวนมาก การประยุกต์ใช้คอมพิวเตอร์ซอฟท์เอไอที่มีการศึกษาโดยรวมวินัยเกิดขึ้นใหม่ของหน่วยสืบราชการลับการคำนวณ [183]
ทางสถิติ
GOFAIแบบดั้งเดิมส่วนใหญ่จมอยู่กับแพตช์เฉพาะกิจไปจนถึงการคำนวณเชิงสัญลักษณ์ที่ทำงานกับโมเดลของเล่นของตัวเอง แต่ล้มเหลวในการสรุปผลในโลกแห่งความเป็นจริง อย่างไรก็ตามในช่วงทศวรรษ 1990 นักวิจัย AI ได้นำเครื่องมือทางคณิตศาสตร์ที่ซับซ้อนมาใช้เช่นแบบจำลอง Markov (HMM) ที่ซ่อนอยู่ทฤษฎีข้อมูลและทฤษฎีการตัดสินใจแบบเบย์เชิงบรรทัดฐานเพื่อเปรียบเทียบหรือรวมสถาปัตยกรรมที่แข่งขันกันเข้าด้วยกัน ภาษาทางคณิตศาสตร์ที่ใช้ร่วมกันอนุญาตให้มีการทำงานร่วมกันในระดับสูงกับสาขาที่เป็นที่ยอมรับมากขึ้น (เช่นคณิตศาสตร์เศรษฐศาสตร์หรือการวิจัยการดำเนินงาน ) [h]เมื่อเปรียบเทียบกับ GOFAI เทคนิค "การเรียนรู้ทางสถิติ" แบบใหม่เช่น HMM และเครือข่ายประสาทเทียมได้รับความแม่นยำในระดับที่สูงขึ้นในโดเมนที่ใช้งานได้จริงหลายอย่างเช่นการขุดข้อมูลโดยไม่จำเป็นต้องได้รับความเข้าใจเชิงความหมายเกี่ยวกับชุดข้อมูล ความสำเร็จที่เพิ่มขึ้นจากข้อมูลในโลกแห่งความเป็นจริงนำไปสู่การเน้นที่เพิ่มขึ้นในการเปรียบเทียบแนวทางต่างๆกับข้อมูลการทดสอบที่ใช้ร่วมกันเพื่อดูว่าแนวทางใดทำงานได้ดีที่สุดในบริบทที่กว้างกว่าที่จัดทำโดยโมเดลของเล่นที่แปลก การวิจัย AI ได้กลายเป็นมากขึ้นทางวิทยาศาสตร์ ปัจจุบันผลลัพธ์ของการทดลองมักจะวัดผลได้อย่างเข้มงวดและบางครั้งก็สามารถทำซ้ำได้ (ด้วยความยากลำบาก) [54] [184]เทคนิคการเรียนรู้ทางสถิติที่แตกต่างกันมีข้อ จำกัด ที่แตกต่างกัน ตัวอย่างเช่น HMM พื้นฐานไม่สามารถจำลองการผสมผสานภาษาธรรมชาติที่เป็นไปได้ไม่สิ้นสุด [185]นักวิจารณ์สังเกตว่าการเปลี่ยนจาก GOFAI เป็นการเรียนรู้ทางสถิติมักเป็นการเปลี่ยนจากAI ที่อธิบายได้ ในการวิจัยของ AGI นักวิชาการบางคนเตือนไม่ให้พึ่งพาการเรียนรู้ทางสถิติมากเกินไปและยืนยันว่าการวิจัยอย่างต่อเนื่องเกี่ยวกับ GOFAI จะยังคงมีความจำเป็นเพื่อให้บรรลุความฉลาดทั่วไป [186] [187]
การบูรณาการแนวทาง
- กระบวนทัศน์ตัวแทนอัจฉริยะ
- ตัวแทนชาญฉลาดเป็นระบบที่รับรู้สภาพแวดล้อมและใช้เวลาดำเนินการที่เพิ่มโอกาสของการประสบความสำเร็จ ตัวแทนอัจฉริยะที่ง่ายที่สุดคือโปรแกรมที่แก้ปัญหาเฉพาะ ตัวแทนที่ซับซ้อนมากขึ้น ได้แก่ มนุษย์และองค์กรของมนุษย์ (เช่น บริษัท ) กระบวนทัศน์ช่วยให้นักวิจัยสามารถเปรียบเทียบโดยตรงหรือรวมวิธีการต่างๆเข้ากับปัญหาที่แยกได้โดยการถามว่าตัวแทนใดดีที่สุดในการเพิ่ม "ฟังก์ชันเป้าหมาย" ที่กำหนด ตัวแทนที่แก้ไขปัญหาเฉพาะสามารถใช้แนวทางใดก็ได้ที่ได้ผล - ตัวแทนบางตัวเป็นสัญลักษณ์และตรรกะบางส่วนเป็นเครือข่ายประสาทเทียมที่เป็นสัญลักษณ์ย่อย และคนอื่น ๆ อาจใช้แนวทางใหม่ กระบวนทัศน์ยังช่วยให้นักวิจัยมีภาษากลางในการสื่อสารกับสาขาอื่น ๆ เช่น ทฤษฎีการตัดสินใจและเศรษฐศาสตร์ซึ่งใช้แนวคิดของตัวแทนนามธรรมด้วย การสร้างตัวแทนที่สมบูรณ์ต้องใช้นักวิจัยในการแก้ไขปัญหาที่เป็นจริงของการรวม ตัวอย่างเช่นเนื่องจากระบบประสาทสัมผัสให้ข้อมูลที่ไม่แน่นอนเกี่ยวกับสิ่งแวดล้อมระบบการวางแผนจึงต้องสามารถทำงานได้เมื่อมีความไม่แน่นอน กระบวนทัศน์ตัวแทนอัจฉริยะได้รับการยอมรับอย่างกว้างขวางในช่วงปี 1990 [188]
- สถาปัตยกรรมตัวแทนและ สถาปัตยกรรมทางปัญญา
- นักวิจัยได้รับการออกแบบระบบการสร้างระบบอัจฉริยะออกมาจากการมีปฏิสัมพันธ์ ตัวแทนอัจฉริยะใน หลายระบบตัวแทน [189]ระบบการควบคุมลำดับชั้นให้สะพานเชื่อมระหว่างย่อยสัญลักษณ์ AI ที่ต่ำสุดที่ระดับปฏิกิริยาและแบบดั้งเดิมสัญลักษณ์ AI ในระดับสูงสุดที่ จำกัด ของเวลาที่ผ่อนคลายอนุญาตให้มีการวางแผนและการสร้างแบบจำลองโลก [190]สถาปัตยกรรมทางปัญญาบางอย่างถูกสร้างขึ้นเองเพื่อแก้ปัญหาแคบ ๆ อื่น ๆ เช่น Soarได้รับการออกแบบมาเพื่อเลียนแบบความรู้ความเข้าใจของมนุษย์และเพื่อให้ข้อมูลเชิงลึกเกี่ยวกับสติปัญญาทั่วไป ส่วนขยายที่ทันสมัยของ Soar เป็น ระบบอัจฉริยะแบบไฮบริดที่มีส่วนประกอบทั้งสัญลักษณ์และสัญลักษณ์ย่อย [97] [191]
เครื่องมือ
แอปพลิเคชัน
AI เกี่ยวข้องกับงานทางปัญญาใด ๆ [192]เทคนิคปัญญาประดิษฐ์สมัยใหม่แพร่หลาย[193]และมีจำนวนมากเกินไปที่จะระบุไว้ที่นี่ บ่อยครั้งเมื่อเทคนิคไปสู่การใช้งานหลักก็ไม่ถือว่าเป็นปัญญาประดิษฐ์อีกต่อไป ปรากฏการณ์นี้อธิบายว่าผล AI [194]
ตัวอย่างที่มีรายละเอียดสูงของ AI ได้แก่ ยานพาหนะที่เป็นอิสระ (เช่นโดรนและรถยนต์ที่ขับเคลื่อนด้วยตัวเอง ) การวินิจฉัยทางการแพทย์การสร้างงานศิลปะ (เช่นบทกวี) การพิสูจน์ทฤษฎีทางคณิตศาสตร์การเล่นเกม (เช่น Chess หรือ Go) เครื่องมือค้นหา (เช่นGoogle Search ), ผู้ช่วยออนไลน์ (เช่นSiri ), การจดจำรูปภาพในภาพถ่าย, การกรองสแปม, การคาดการณ์ความล่าช้าของเที่ยวบิน, [195]การคาดคะเนการตัดสินของศาล, [196]การกำหนดเป้าหมายโฆษณาออนไลน์, [192] [197] [198]และพลังงาน พื้นที่เก็บข้อมูล[199]
ด้วยเว็บไซต์โซเชียลมีเดียที่แซงหน้าทีวีเป็นแหล่งข่าวสำหรับคนรุ่นใหม่และองค์กรข่าวต่างหันมาพึ่งพาแพลตฟอร์มโซเชียลมีเดียมากขึ้นในการสร้างการเผยแพร่[200]ผู้เผยแพร่โฆษณารายใหญ่ใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อโพสต์เรื่องราวได้อย่างมีประสิทธิภาพมากขึ้นและสร้างปริมาณ การจราจร. [201]
AI ยังสามารถผลิตDeepfakesซึ่งเป็นเทคโนโลยีการปรับเปลี่ยนเนื้อหา ZDNet รายงานว่า "นำเสนอสิ่งที่ไม่ได้เกิดขึ้นจริง" แม้ว่าชาวอเมริกัน 88% เชื่อว่า Deepfakes สามารถก่อให้เกิดอันตรายมากกว่าผลดี แต่มีเพียง 47% เท่านั้นที่เชื่อว่าสามารถกำหนดเป้าหมายได้ ปีแห่งการเลือกตั้งที่เฟื่องฟูยังเปิดให้มีการอภิปรายสาธารณะเกี่ยวกับการคุกคามวิดีโอของสื่อนักการเมืองที่แอบอ้าง [202]
ปรัชญาและจริยธรรม
มีคำถามเชิงปรัชญาสามข้อที่เกี่ยวข้องกับ AI: [203]
- ไม่ว่าปัญญาประดิษฐ์ทั่วไปเป็นไปได้; ไม่ว่าเครื่องจักรจะสามารถแก้ปัญหาใด ๆ ที่มนุษย์สามารถแก้ไขได้โดยใช้สติปัญญาหรือมีข้อ จำกัด ที่ยากสำหรับสิ่งที่เครื่องจักรสามารถทำได้
- เครื่องจักรอัจฉริยะเป็นอันตรายหรือไม่ มนุษย์จะมั่นใจได้อย่างไรว่าเครื่องจักรทำงานอย่างมีจริยธรรมและถูกใช้อย่างมีจริยธรรม
- ไม่ว่าจะเป็นเครื่องที่สามารถมีใจ , สติและจิตในความรู้สึกเดียวกันกับที่มนุษย์ทำ; หากเครื่องจักรสามารถมีความรู้สึกได้และด้วยเหตุนี้จึงสมควรได้รับสิทธิ์บางประการและหากเครื่องจงใจก่อให้เกิดอันตราย
ขีด จำกัด ของปัญญาประดิษฐ์ทั่วไป
- “ อนุสัญญาสุภาพ” ของอลันทัวริง
- เราไม่จำเป็นต้องตัดสินใจว่าเครื่องจักรสามารถ "คิด"; เราต้องการเพียงแค่ตัดสินใจว่าเครื่องจักรสามารถทำงานได้อย่างชาญฉลาดเหมือนมนุษย์หรือไม่ วิธีการแก้ปัญหาทางปรัชญาที่เกี่ยวข้องกับปัญญาประดิษฐ์นี้เป็นพื้นฐานของ การทดสอบทัวริง [204]
- ข้อเสนอดาร์ทเมาท์
- "ทุกแง่มุมของการเรียนรู้หรือคุณลักษณะอื่น ๆ ของความฉลาดสามารถอธิบายได้อย่างแม่นยำจนสามารถสร้างเครื่องจักรเพื่อจำลองได้" การคาดเดานี้ถูกพิมพ์ในข้อเสนอสำหรับการประชุมดาร์ทเมาท์ปี 2499 [205]
- สมมติฐานระบบสัญลักษณ์ทางกายภาพของนิวเวลล์และไซมอน
- "ระบบสัญลักษณ์ทางกายภาพมีวิธีการที่จำเป็นและเพียงพอสำหรับการกระทำอัจฉริยะทั่วไป" Newell และ Simon ให้เหตุผลว่าหน่วยสืบราชการลับประกอบด้วยการดำเนินการอย่างเป็นทางการกับสัญลักษณ์ [206]ฮิวเบิร์ตเดรย์ฟัสให้เหตุผลว่าในทางตรงกันข้ามความเชี่ยวชาญของมนุษย์ขึ้นอยู่กับสัญชาตญาณโดยไม่รู้ตัวมากกว่าการปรุงแต่งสัญลักษณ์ที่มีสติและการมี "ความรู้สึก" ต่อสถานการณ์แทนที่จะเป็นความรู้เชิงสัญลักษณ์อย่างชัดเจน (ดูการ วิจารณ์ AI ของ Dreyfus ) [i] [208]
- ข้อโต้แย้งของGödelian
- เกอเดลเอง [209]จอห์นลูคัส (ในปี 2504) และ โรเจอร์เพนโรส (ในการโต้แย้งที่มีรายละเอียดมากขึ้นตั้งแต่ปี พ.ศ. 2532 เป็นต้นไป) ได้โต้แย้งทางเทคนิคอย่างมากว่านักคณิตศาสตร์ที่เป็นมนุษย์สามารถมองเห็นความจริงของ "งบGödel" ของตนเองได้อย่างสม่ำเสมอดังนั้นจึงมีความสามารถในการคำนวณที่เหนือกว่า ของเครื่องจักรทัวริงเชิงกล [210]อย่างไรก็ตามบางคนไม่เห็นด้วยกับ "ข้อโต้แย้งของGödelian" [211] [212] [213]
- การโต้แย้งของสมองเทียม
- ข้อโต้แย้งที่ยืนยันว่าสมองสามารถจำลองได้ด้วยเครื่องจักรและเนื่องจากสมองแสดงความฉลาดสมองจำลองเหล่านี้จึงต้องแสดงความฉลาดด้วยเช่นกันเครื่องจักรสามารถฉลาดได้ Hans Moravec , Ray Kurzweilและคนอื่น ๆ ได้โต้แย้งว่าเป็นไปได้ทางเทคโนโลยีที่จะคัดลอกสมองลงในฮาร์ดแวร์และซอฟต์แวร์โดยตรงและการจำลองดังกล่าวจะเหมือนกับต้นฉบับ [164]
- ผล AI
- สมมติฐานที่อ้างว่าเครื่องจักรมี ความฉลาดอยู่แล้วแต่ผู้สังเกตการณ์ไม่สามารถจดจำได้ ตัวอย่างเช่นเมื่อ Deep Blueเอาชนะ Garry Kasparovด้วยการเล่นหมากรุกเครื่องสามารถอธิบายได้ว่าเป็นการแสดงความฉลาด อย่างไรก็ตามผู้เข้าชมมักจะลดพฤติกรรมของโปรแกรมปัญญาประดิษฐ์โดยการโต้เถียงว่ามันไม่ใช่ปัญญา "ที่แท้จริง" โดยที่ปัญญา "ของจริง" มีผลบังคับใช้ว่าสิ่งที่เครื่องแสดงพฤติกรรมไม่สามารถทำได้
เครื่องจักรที่มีจริยธรรม
เครื่องจักรที่มีความชาญฉลาดมีศักยภาพในการใช้สติปัญญาเพื่อป้องกันอันตรายและลดความเสี่ยงให้เหลือน้อยที่สุด พวกเขาอาจมีความสามารถในการใช้เหตุผลทางจริยธรรมเพื่อเลือกการกระทำของตนในโลกได้ดีขึ้น ด้วยเหตุนี้จึงมีความจำเป็นในการกำหนดนโยบายเพื่อกำหนดนโยบายและควบคุมปัญญาประดิษฐ์และหุ่นยนต์ [214]การวิจัยในพื้นที่นี้รวมถึงจริยธรรมเครื่อง , ตัวแทนศีลธรรมเทียม , มิตร AIและอภิปรายต่อการสร้างสิทธิมนุษยชนกรอบยังอยู่ในการเจรจา [215]
Joseph WeizenbaumในสาขาComputer Power and Human Reasonเขียนว่าโดยคำจำกัดความแอปพลิเคชัน AI ไม่สามารถจำลองการเอาใจใส่ของมนุษย์แท้ได้สำเร็จและการใช้เทคโนโลยี AI ในสาขาต่างๆเช่นการบริการลูกค้าหรือจิตบำบัด[j]นั้นเข้าใจผิดอย่างลึกซึ้ง Weizenbaum ยังรู้สึกกังวลว่านักวิจัย AI (และนักปรัชญาบางคน) เต็มใจที่จะมองว่าจิตใจมนุษย์เป็นเพียงโปรแกรมคอมพิวเตอร์ (ตำแหน่งปัจจุบันเรียกว่าcomputationalism ) สำหรับ Weizenbaum ประเด็นเหล่านี้ชี้ให้เห็นว่าการวิจัย AI ลดคุณค่าชีวิตมนุษย์ [217]
ตัวแทนคุณธรรมเทียม
เวนเดลล์วอลลัคนำแนวคิดของตัวแทนศีลธรรมเทียม (AMA) มาใช้ในหนังสือของเขาMoral Machines [218]สำหรับ Wallach แล้ว AMAs ได้กลายเป็นส่วนหนึ่งของแนวการวิจัยของปัญญาประดิษฐ์ตามคำแนะนำของคำถามกลางสองข้อซึ่งเขาระบุว่า "มนุษยชาติต้องการหรือไม่ คอมพิวเตอร์ทำการตัดสินใจทางศีลธรรม " [219]และ" บอท (Ro) สามารถมีคุณธรรมได้จริง ๆ " [220]สำหรับ Wallach คำถามไม่ได้มุ่งเน้นไปที่ประเด็นที่ว่าเครื่องจักรสามารถแสดงให้เห็นถึงความเท่าเทียมกันของพฤติกรรมทางศีลธรรมซึ่งแตกต่างจากข้อ จำกัดที่สังคมอาจวางไว้ในการพัฒนา AMAs [221]
จรรยาบรรณของเครื่องจักร
สาขาจริยธรรมของเครื่องจักรเกี่ยวข้องกับการให้หลักการทางจริยธรรมของเครื่องจักรหรือขั้นตอนในการค้นหาวิธีการแก้ไขประเด็นขัดแย้งทางจริยธรรมที่พวกเขาอาจพบทำให้พวกเขาสามารถทำงานได้อย่างมีความรับผิดชอบทางจริยธรรมผ่านการตัดสินใจทางจริยธรรมของตนเอง [222]เขตข้อมูลนี้ถูกอธิบายไว้ในการประชุมวิชาการ AAAI Fall 2005 เกี่ยวกับจริยธรรมของเครื่องจักร: "งานวิจัยที่ผ่านมาเกี่ยวกับความสัมพันธ์ระหว่างเทคโนโลยีและจริยธรรมส่วนใหญ่มุ่งเน้นไปที่การใช้เทคโนโลยีอย่างรับผิดชอบและไร้ความรับผิดชอบของมนุษย์โดยมีคนไม่กี่คนที่สนใจว่ามนุษย์ สิ่งมีชีวิตควรที่จะปฏิบัติต่อเครื่องจักรในทุกกรณีมีเพียงมนุษย์เท่านั้นที่มีส่วนร่วมในการให้เหตุผลทางจริยธรรมถึงเวลาแล้วที่จะต้องเพิ่มมิติทางจริยธรรมให้กับเครื่องจักรอย่างน้อยที่สุดการรับรู้ถึงความแตกต่างทางจริยธรรมของพฤติกรรมที่เกี่ยวข้องกับเครื่องจักรตลอดจนล่าสุดและศักยภาพ การพัฒนาความเป็นอิสระของเครื่องจักรจำเป็นต้องมีสิ่งนี้ในทางตรงกันข้ามกับการแฮ็กคอมพิวเตอร์ปัญหาเกี่ยวกับคุณสมบัติของซอฟต์แวร์ปัญหาความเป็นส่วนตัวและหัวข้ออื่น ๆ ที่กำหนดโดยทั่วไปเกี่ยวกับจริยธรรมของคอมพิวเตอร์จริยธรรมของเครื่องเกี่ยวข้องกับพฤติกรรมของเครื่องจักรที่มีต่อผู้ใช้ที่เป็นมนุษย์และเครื่องจักรอื่น ๆ การวิจัยในจริยธรรมของเครื่องคือ กุญแจสำคัญในการบรรเทาความกังวลเกี่ยวกับระบบอิสระ - อาจเป็นที่ถกเถียงกันอยู่ว่าความคิดของเครื่องจักรอัตโนมัติที่ไม่มี uch มิติเป็นรากเหง้าของความกลัวทั้งหมดที่เกี่ยวข้องกับความฉลาดของเครื่องจักร นอกจากนี้การตรวจสอบจริยธรรมของเครื่องจักรสามารถช่วยให้ค้นพบปัญหาเกี่ยวกับทฤษฎีทางจริยธรรมในปัจจุบันทำให้ความคิดของเราเกี่ยวกับจริยธรรมก้าวหน้าขึ้น " [223]จริยธรรมของเครื่องจักรบางครั้งเรียกว่าศีลธรรมของเครื่องจักรจริยธรรมเชิงคำนวณหรือศีลธรรมในการคำนวณมุมมองที่หลากหลายของการตั้งไข่นี้ สามารถพบได้ใน "Machine Ethics" [222]ฉบับที่รวบรวมซึ่งมาจากการประชุมวิชาการ AAAI Fall 2005 เกี่ยวกับจริยธรรมของเครื่องจักร[223]
AI ที่ร้ายกาจและเป็นมิตร
นักรัฐศาสตร์Charles T. Rubinเชื่อว่า AI ไม่สามารถออกแบบหรือรับประกันได้ว่าจะมีเมตตากรุณา [224]เขาให้เหตุผลว่า "ความเมตตากรุณาขั้นสูงใด ๆ ที่เพียงพออาจแยกไม่ออกจากความมุ่งร้าย" มนุษย์ไม่ควรถือว่าเครื่องจักรหรือหุ่นยนต์ปฏิบัติต่อเราในทางที่ดีเพราะไม่มีเหตุผลเบื้องต้นที่จะเชื่อว่าพวกเขาจะเห็นอกเห็นใจระบบศีลธรรมของเราซึ่งพัฒนาไปพร้อมกับชีววิทยาเฉพาะของเรา (ซึ่ง AI จะไม่แบ่งปัน) ซอฟต์แวร์ไฮเปอร์อัจฉริยะอาจไม่จำเป็นต้องตัดสินใจที่จะสนับสนุนการดำรงอยู่ของมนุษยชาติอย่างต่อเนื่องและเป็นเรื่องยากอย่างยิ่งที่จะหยุดยั้ง เมื่อเร็ว ๆ นี้หัวข้อนี้ยังได้รับการกล่าวถึงในสิ่งพิมพ์ทางวิชาการว่าเป็นแหล่งที่มาของความเสี่ยงที่แท้จริงต่ออารยธรรมมนุษย์และดาวเคราะห์โลก
ข้อเสนอหนึ่งในการจัดการกับปัญหานี้คือเพื่อให้แน่ใจว่า AI อัจฉริยะโดยทั่วไปตัวแรกคือ ' Friendly AI ' และจะสามารถควบคุม AI ที่พัฒนาในภายหลังได้ บางคนมีคำถามว่าการตรวจสอบแบบนี้สามารถคงอยู่ได้จริงหรือไม่
Rodney Brooksนักวิจัย AI ชั้นนำเขียนว่า“ ฉันคิดว่าเป็นความผิดพลาดที่ต้องกังวลเกี่ยวกับการที่เราพัฒนา AI ที่ชั่วร้ายได้ตลอดเวลาในอีกไม่กี่ร้อยปีข้างหน้าฉันคิดว่าความกังวลเกิดจากข้อผิดพลาดพื้นฐานในการไม่แยกแยะความแตกต่างระหว่างความก้าวหน้าล่าสุดที่แท้จริง ในแง่มุมเฉพาะของ AI และความมหึมาและความซับซ้อนของการสร้างปัญญาเชิงเปลี่ยนแปลงอารมณ์ " [225]
อาวุธประจำตัวที่ร้ายแรงเป็นสิ่งที่น่ากังวล ปัจจุบันประเทศต่างๆกว่า 50 ประเทศกำลังวิจัยหุ่นยนต์ในสนามรบซึ่งรวมถึงสหรัฐอเมริกาจีนรัสเซียและสหราชอาณาจักร หลายคนกังวลเกี่ยวกับความเสี่ยงจาก AI ที่ชาญฉลาดและต้องการ จำกัด การใช้ทหารเทียมและโดรน [226]
สติสัมปชัญญะความรู้สึกและจิตใจ
หากระบบ AI จำลองลักษณะสำคัญทั้งหมดของความฉลาดของมนุษย์ระบบนั้นจะมีความรู้สึกด้วย - มันจะมีจิตใจที่มีประสบการณ์ที่ใส่ใจหรือไม่? คำถามนี้เป็นคำถามที่เกี่ยวข้องอย่างใกล้ชิดกับปัญหาปรัชญาเป็นธรรมชาติของจิตสำนึกของมนุษย์ที่เรียกโดยทั่วไปว่าเป็นปัญหาหนักของสติ
สติ
David Chalmersระบุปัญหาสองประการในการทำความเข้าใจจิตใจซึ่งเขาตั้งชื่อว่าปัญหาที่ "ยาก" และ "ง่าย" ของสติ [227]ปัญหาง่ายๆคือการทำความเข้าใจว่าสมองประมวลผลสัญญาณวางแผนและควบคุมพฤติกรรมอย่างไร ปัญหาหนักคือการอธิบายว่าสิ่งนี้รู้สึกอย่างไรหรือทำไมจึงควรรู้สึกเหมือนทุกอย่าง การประมวลผลข้อมูลของมนุษย์นั้นง่ายต่อการอธิบายอย่างไรก็ตามประสบการณ์ส่วนตัวของมนุษย์นั้นยากที่จะอธิบาย
ตัวอย่างเช่นพิจารณาว่าจะเกิดอะไรขึ้นเมื่อมีคนแสดงแถบสีและระบุว่า "มันเป็นสีแดง" ปัญหาง่าย ๆ เพียงแค่ต้องทำความเข้าใจกับเครื่องจักรในสมองที่ทำให้คนรู้ว่าแถบสีเป็นสีแดง ปัญหาที่ยากคือว่าคนที่ยังไม่ทราบอย่างอื่นพวกเขายังรู้ว่าสิ่งที่ดูเหมือนสีแดง (พิจารณาว่าคนตาบอด แต่กำเนิดสามารถรู้ได้ว่ามีบางอย่างเป็นสีแดงโดยไม่รู้ว่าสีแดงมีลักษณะอย่างไร) [k]ทุกคนรู้ว่ามีประสบการณ์ส่วนตัวเพราะพวกเขาทำทุกวัน (เช่นคนที่มองเห็นทุกคนรู้ว่าสีแดงเป็นอย่างไร) ปัญหาหนักคือการอธิบายว่าสมองสร้างขึ้นมาได้อย่างไรทำไมจึงมีอยู่และแตกต่างจากความรู้และด้านอื่น ๆ ของสมองอย่างไร
Computationalism และ functionalism
Computationalism เป็นตำแหน่งในปรัชญาของจิตใจที่ว่าจิตใจของมนุษย์หรือสมองของมนุษย์ (หรือทั้งสองอย่าง) เป็นระบบประมวลผลข้อมูลและการคิดนั้นเป็นรูปแบบหนึ่งของการคำนวณ [228] computationalism ระบุว่าความสัมพันธ์ระหว่างร่างกายและจิตใจเป็นที่คล้ายกันหรือเหมือนกันกับความสัมพันธ์ระหว่างซอฟต์แวร์และฮาร์ดแวร์และดังนั้นจึงอาจจะแก้ปัญหาที่จะมีปัญหาจิตใจร่างกาย ตำแหน่งนี้ปรัชญาได้แรงบันดาลใจจากการทำงานของเอไอวิจัยและองค์ความรู้วิทยาศาสตร์ในปี 1960 และได้รับการเสนอโดยนักปรัชญาเจอร์รีโดร์และฮิลารีพัท
สมมติฐาน AI ที่แข็งแกร่ง
ตำแหน่งทางปรัชญาที่John Searleตั้งชื่อว่า"AI ที่แข็งแกร่ง"กล่าวว่า "คอมพิวเตอร์ที่ตั้งโปรแกรมไว้อย่างเหมาะสมพร้อมอินพุตและเอาต์พุตที่เหมาะสมจะมีความคิดในแง่เดียวกันกับที่มนุษย์มีจิตใจ" [l] Searle ตอบโต้การยืนยันนี้ด้วยข้อโต้แย้งในห้องภาษาจีนของเขาซึ่งขอให้เราดูในคอมพิวเตอร์และพยายามค้นหาว่า "จิตใจ" อาจอยู่ที่ใด [230]
สิทธิของหุ่นยนต์
หากสามารถสร้างเครื่องจักรที่มีความฉลาดได้ก็จะรู้สึกเช่นกัน? ถ้ารู้สึกได้มันมีสิทธิเหมือนมนุษย์หรือไม่? ปัญหานี้ซึ่งปัจจุบันรู้จักกันในชื่อ " สิทธิของหุ่นยนต์ " กำลังอยู่ในการพิจารณาของตัวอย่างเช่นสถาบันเพื่ออนาคตแห่งแคลิฟอร์เนียแม้ว่านักวิจารณ์หลายคนเชื่อว่าการอภิปรายดังกล่าวจะเกิดขึ้นก่อนเวลาอันควร [231] [232]นักวิจารณ์บางคนเกี่ยวกับtranshumanismโต้แย้งว่าสิทธิของหุ่นยนต์ที่สมมุติขึ้นจะอยู่บนสเปกตรัมด้วยสิทธิสัตว์และสิทธิมนุษยชน [233]เรื่องที่จะกล่าวถึงอย่างสุดซึ้งใน 2010 ภาพยนตร์สารคดีPlug & Pray , [234]และสื่อวิทย์ fi หลายอย่างเช่นStar Trekรุ่นต่อไปด้วยตัวอักษรของผู้บัญชาการข้อมูลที่ต่อสู้ถูกถอดชิ้นส่วนสำหรับการวิจัยและอยากจะ " กลายเป็นมนุษย์ "และโฮโลแกรมของหุ่นยนต์ในยานโวเอเจอร์
Superintelligence
มีข้อ จำกัด ว่าเครื่องจักรอัจฉริยะหรือลูกผสมมนุษย์ - เครื่องจักรสามารถเป็นได้อย่างไร? ความฉลาดเหนือจินตนาการความฉลาดเกินมนุษย์หรือความฉลาดเหนือมนุษย์เป็นตัวแทนสมมุติฐานที่จะมีสติปัญญาเหนือกว่าจิตใจของมนุษย์ที่สว่างไสวและมีพรสวรรค์มากที่สุด Superintelligenceอาจหมายถึงรูปแบบหรือระดับความฉลาดที่ตัวแทนดังกล่าวครอบครอง [157]
ความเป็นเอกฐานทางเทคโนโลยี
หากการวิจัยเรื่องStrong AIทำให้เกิดซอฟต์แวร์ที่ชาญฉลาดเพียงพอก็อาจสามารถตั้งโปรแกรมใหม่และปรับปรุงตัวเองได้ ซอฟต์แวร์ที่ได้รับการปรับปรุงจะดียิ่งขึ้นในการปรับปรุงตัวเองซึ่งนำไปสู่การปรับปรุงตนเองซ้ำๆ [235]ความฉลาดใหม่นี้สามารถเพิ่มขึ้นอย่างทวีคูณและเหนือกว่ามนุษย์อย่างมาก นักเขียนนิยายวิทยาศาสตร์Vernor Vingeตั้งชื่อสถานการณ์นี้ว่า " singularity " [236]ความเป็นเอกฐานทางเทคโนโลยีคือเมื่อการเร่งความก้าวหน้าของเทคโนโลยีจะทำให้เกิดผลกระทบที่ไม่อาจหลีกเลี่ยงโดยที่ปัญญาประดิษฐ์จะเกินขีดความสามารถและการควบคุมทางปัญญาของมนุษย์ดังนั้นการเปลี่ยนแปลงอย่างรุนแรงหรือแม้กระทั่งการสิ้นสุดอารยธรรม เนื่องจากความสามารถของหน่วยสืบราชการลับดังกล่าวอาจไม่สามารถเข้าใจได้ความเป็นเอกฐานทางเทคโนโลยีจึงเกิดขึ้นนอกเหนือจากเหตุการณ์ที่คาดเดาไม่ได้หรือไม่อาจหยั่งรู้ได้ [236] [157]
Ray Kurzweilได้ใช้กฎของ Moore (ซึ่งอธิบายถึงการปรับปรุงเอกซ์โพเนนเชียลอย่างไม่หยุดยั้งในเทคโนโลยีดิจิทัล) เพื่อคำนวณว่าคอมพิวเตอร์เดสก์ท็อปจะมีพลังในการประมวลผลเช่นเดียวกับสมองของมนุษย์ภายในปี 2029 และคาดการณ์ว่าภาวะเอกฐานจะเกิดขึ้นในปี 2045 [236]
Transhumanism
นักออกแบบหุ่นยนต์Hans Moravecนักไซเบอร์เนติกส์Kevin Warwickและนักประดิษฐ์Ray Kurzweilได้คาดการณ์ว่าในอนาคตมนุษย์และเครื่องจักรจะรวมกันเป็นหุ่นยนต์ที่มีความสามารถและทรงพลังมากกว่าทั้งสองอย่าง [237]ความคิดนี้เรียกว่าtranshumanismมีรากในฮักซ์ลีย์และโรเบิร์ต Ettinger
Edward Fredkin ให้เหตุผลว่า "ปัญญาประดิษฐ์เป็นขั้นตอนต่อไปในวิวัฒนาการ" ซึ่งเป็นแนวคิดที่เสนอครั้งแรกโดย" ดาร์วินท่ามกลางเครื่องจักร " ของซามูเอลบัตเลอร์ย้อนกลับไปในปีพ. ศ. 2406 และขยายผลโดยจอร์จไดสันในหนังสือชื่อเดียวกันใน พ.ศ. 2541 [238]
ผลกระทบ
ผลกระทบทางเศรษฐกิจในระยะยาวของ AI นั้นไม่แน่นอน จากการสำรวจของนักเศรษฐศาสตร์ที่แสดงให้เห็นความขัดแย้งเกี่ยวกับว่าการใช้งานที่เพิ่มมากขึ้นของหุ่นยนต์และ AI จะทำให้เกิดการเพิ่มขึ้นมากในระยะยาวการว่างงานแต่พวกเขาโดยทั่วไปยอมรับว่ามันอาจจะเป็นประโยชน์สุทธิถ้าผลผลิตกำไรมีการแจกจ่าย [239]ผลการศึกษาในปี 2017 โดยไพร้ซวอเตอร์เฮาส์คูเปอร์สพบว่าสาธารณรัฐประชาชนจีนได้รับประโยชน์สูงสุดจาก AI โดยมี 26,1% ของGDPจนถึงปี 2573 [240]สมุดปกขาวของสหภาพยุโรปเกี่ยวกับปัญญาประดิษฐ์ฉบับเดือนกุมภาพันธ์ พ.ศ. 2563 ที่สนับสนุนปัญญาประดิษฐ์เพื่อเศรษฐกิจ ประโยชน์ที่ได้รับรวมถึง "การปรับปรุงการดูแลสุขภาพ (เช่นการวินิจฉัยที่แม่นยำยิ่งขึ้นทำให้สามารถป้องกันโรคได้ดีขึ้น) เพิ่มประสิทธิภาพของการทำฟาร์มมีส่วนช่วยลดการเปลี่ยนแปลงสภาพภูมิอากาศและการปรับตัว [และ] การปรับปรุงประสิทธิภาพของระบบการผลิตผ่านการบำรุงรักษาเชิงคาดการณ์" ในขณะที่รับทราบ ความเสี่ยงที่อาจเกิดขึ้น [193]
ความสัมพันธ์ระหว่างระบบอัตโนมัติและการจ้างงานที่มีความซับซ้อน แม้ว่าระบบอัตโนมัติจะกำจัดงานเก่า แต่ก็ยังสร้างงานใหม่ผ่านผลกระทบทางเศรษฐกิจระดับจุลภาคและเศรษฐกิจมหภาค [241]ซึ่งแตกต่างจากระบบอัตโนมัติในช่วงก่อนหน้านี้งานระดับกลางจำนวนมากอาจถูกกำจัดโดยปัญญาประดิษฐ์ ดิอีโคโนมิสต์ระบุว่า "ความกังวลที่ AI จะทำกับงานปกขาวที่พลังไอน้ำทำกับคนปกสีน้ำเงินในช่วงปฏิวัติอุตสาหกรรม" นั้น "ควรค่าแก่การเอาจริงเอาจัง" [242] การประมาณความเสี่ยงที่เป็นส่วนตัวแตกต่างกันไป ตัวอย่างเช่น Michael Osborne และCarl Benedikt Freyประเมินว่า 47% ของงานในสหรัฐฯมี "ความเสี่ยงสูง" ของระบบอัตโนมัติที่อาจเกิดขึ้นในขณะที่รายงาน OECD ระบุว่ามีงานในสหรัฐฯเพียง 9% เท่านั้นที่ "มีความเสี่ยงสูง" [243] [244] [245]งานที่มีความเสี่ยงสูงมีตั้งแต่งานพาราไปจนถึงพ่อครัวทำอาหารจานด่วนในขณะที่ความต้องการงานมีแนวโน้มเพิ่มขึ้นสำหรับอาชีพที่เกี่ยวข้องกับการดูแลตั้งแต่การดูแลสุขภาพส่วนบุคคลไปจนถึงนักบวช [246]ผู้เขียนมาร์ตินฟอร์ดและคนอื่น ๆ ไปไกลกว่านั้นและโต้แย้งว่างานจำนวนมากเป็นงานประจำซ้ำซากและ (สำหรับ AI) สามารถคาดเดาได้ ฟอร์ดเตือนว่างานเหล่านี้อาจเป็นแบบอัตโนมัติในอีกไม่กี่ทศวรรษข้างหน้าและงานใหม่จำนวนมากอาจไม่สามารถ "เข้าถึงได้สำหรับคนที่มีความสามารถโดยเฉลี่ย" แม้ว่าจะมีการฝึกอบรมใหม่ก็ตาม นักเศรษฐศาสตร์ชี้ให้เห็นว่าในอดีตเทคโนโลยีมีแนวโน้มเพิ่มขึ้นแทนที่จะลดการจ้างงานทั้งหมด แต่ยอมรับว่า "เราอยู่ในดินแดนที่ไม่จดที่แผนที่" ด้วย AI [35]
ผลกระทบเชิงลบที่อาจเกิดขึ้นจาก AI และระบบอัตโนมัติเป็นปัญหาสำคัญสำหรับแคมเปญชิงตำแหน่งประธานาธิบดีปี 2020ของAndrew Yangในสหรัฐอเมริกา [247] Irakli Beridze หัวหน้าศูนย์ปัญญาประดิษฐ์และหุ่นยนต์ของ UNICRI องค์การสหประชาชาติได้กล่าวว่า "ฉันคิดว่าแอปพลิเคชันที่เป็นอันตรายสำหรับ AI จากมุมมองของฉันน่าจะเป็นอาชญากรหรือองค์กรก่อการร้ายขนาดใหญ่ที่ใช้มันเพื่อก่อกวน กระบวนการขนาดใหญ่หรือเพียงแค่ทำอันตรายอย่างบริสุทธิ์ [ผู้ก่อการร้ายอาจก่อให้เกิดอันตราย] ผ่านสงครามดิจิทัลหรืออาจเป็นการผสมผสานระหว่างหุ่นยนต์โดรนกับ AI และสิ่งอื่น ๆ เช่นกันซึ่งอาจเป็นอันตรายจริงๆและแน่นอนความเสี่ยงอื่น ๆ ก็ตามมา จากสิ่งต่างๆเช่นการสูญเสียงานหากเรามีคนจำนวนมากตกงานและไม่พบวิธีแก้ปัญหาจะเป็นอันตรายอย่างยิ่งสิ่งต่างๆเช่นระบบอาวุธอัตโนมัติที่ร้ายแรงควรได้รับการควบคุมอย่างเหมาะสมมิฉะนั้นอาจมีการใช้ในทางที่ผิดได้มาก " [248]
ความเสี่ยงของ AI ที่แคบ
การใช้ปัญญาประดิษฐ์อย่างแพร่หลายอาจส่งผลที่ไม่คาดคิดซึ่งเป็นอันตรายหรือไม่พึงปรารถนา นักวิทยาศาสตร์จากFuture of Life Instituteและคนอื่น ๆ ได้อธิบายเป้าหมายการวิจัยระยะสั้นเพื่อดูว่า AI มีอิทธิพลต่อเศรษฐกิจกฎหมายและจริยธรรมที่เกี่ยวข้องกับ AI อย่างไรและจะลดความเสี่ยงด้านความปลอดภัยของ AI ได้อย่างไร ในระยะยาวนักวิทยาศาสตร์ได้เสนอให้เพิ่มประสิทธิภาพฟังก์ชันต่อไปในขณะที่ลดความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้นพร้อมกับเทคโนโลยีใหม่ ๆ [249]
บางคนกังวลเกี่ยวกับอคติของอัลกอริทึมว่าโปรแกรม AI อาจกลายเป็นอคติโดยไม่ได้ตั้งใจหลังจากประมวลผลข้อมูลที่มีอคติ [250]อัลกอริทึมมีการใช้งานมากมายในระบบกฎหมาย ตัวอย่างนี้เป็นCOMPAS , โปรแกรมเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลายโดยศาลสหรัฐเพื่อประเมินโอกาสในการที่จำเลยกลายเป็นrecidivist ProPublicaอ้างว่าระดับความเสี่ยงในการกระทำผิดซ้ำที่กำหนดโดย COMPAS โดยเฉลี่ยของจำเลยผิวดำนั้นสูงกว่าระดับความเสี่ยงโดยเฉลี่ยที่กำหนดโดย COMPAS ของจำเลยผิวขาวอย่างมีนัยสำคัญ [251]
ความเสี่ยงของ AI ทั่วไป
ฟิสิกส์สตีเฟ่นฮอว์คิง , ไมโครซอฟท์ผู้ก่อตั้งบิลเกตส์ , ประวัติอาจารย์Yuval โนอาห์ Harariและสปาก่อตั้งElon Muskได้แสดงความกังวลเกี่ยวกับความเป็นไปได้ที่เอไอจะมีวิวัฒนาการไปยังจุดที่มนุษย์ไม่สามารถควบคุมได้ด้วยฮอว์คิงทฤษฎีที่ว่านี้สามารถ " สะกดท้ายที่สุด ของเผ่าพันธุ์มนุษย์ ”. [252] [253] [254] [255]
การพัฒนาปัญญาประดิษฐ์เต็มรูปแบบสามารถสะกดการสิ้นสุดของเผ่าพันธุ์มนุษย์ได้ เมื่อมนุษย์พัฒนาปัญญาประดิษฐ์แล้วก็จะถอดตัวเองและออกแบบตัวเองใหม่ในอัตราที่เพิ่มขึ้นเรื่อย ๆ มนุษย์ซึ่งถูก จำกัด ด้วยวิวัฒนาการทางชีววิทยาที่ช้าไม่สามารถแข่งขันได้และจะถูกแทนที่ด้วย
- สตีเฟนฮอว์คิง[256]
ในหนังสือSuperintelligenceของเขาNick Bostromนักปรัชญาให้เหตุผลว่าปัญญาประดิษฐ์จะเป็นภัยคุกคามต่อมนุษยชาติ เขาระบุว่า AI ที่ชาญฉลาดเพียงพอหากเลือกการกระทำตามการบรรลุเป้าหมายบางอย่างจะแสดงพฤติกรรมที่มาบรรจบกันเช่นการได้มาซึ่งทรัพยากรหรือการป้องกันตัวเองจากการถูกปิด หากเป้าหมายของ AI นี้ไม่ได้สะท้อนถึงความเป็นมนุษย์อย่างสมบูรณ์ตัวอย่างหนึ่งคือ AI บอกให้คำนวณตัวเลขของ pi ให้ได้มากที่สุด - อาจเป็นอันตรายต่อมนุษยชาติเพื่อให้ได้มาซึ่งทรัพยากรมากขึ้นหรือป้องกันไม่ให้ตัวเองถูกปิดลงในที่สุดเพื่อให้บรรลุเป้าหมายได้ดีขึ้น . Bostrom ยังเน้นย้ำถึงความยากลำบากในการถ่ายทอดคุณค่าของมนุษยชาติไปยัง AI ขั้นสูง เขาใช้ตัวอย่างสมมุติฐานในการให้ AI เป็นเป้าหมายเพื่อทำให้มนุษย์ยิ้มได้เพื่อแสดงให้เห็นถึงความพยายามที่เข้าใจผิด หาก AI ในสถานการณ์นั้นกลายเป็นอัจฉริยะขั้นสูง Bostrom ให้เหตุผลว่าอาจใช้วิธีที่มนุษย์ส่วนใหญ่พบว่าน่ากลัวเช่นการใส่ "อิเล็กโทรดเข้าไปในกล้ามเนื้อใบหน้าของมนุษย์เพื่อให้คงที่และยิ้มแย้มแจ่มใส" เพราะนั่นจะเป็นวิธีที่มีประสิทธิภาพ วิธีที่จะบรรลุเป้าหมายในการทำให้มนุษย์ยิ้มได้ [257]ในหนังสือของเขาชนเข้ากันได้ , AI วิจัยจวร์ตเจรัสเซลสะท้อนบางส่วนของความกังวล Bostrom ในขณะที่ยังมีการเสนอแนวทางในการพัฒนาเครื่องจักรประโยชน์สรรพสิ่งมุ่งเน้นไปที่ความไม่แน่นอนและความเคารพต่อมนุษย์[258] : 173ที่อาจจะเกี่ยวข้องกับการเรียนรู้การเสริมแรงผกผัน [258] : 191–193
ความกังวลเกี่ยวกับความเสี่ยงจากปัญญาประดิษฐ์ได้นำไปสู่การบริจาคและการลงทุนที่มีรายละเอียดสูง กลุ่ม บริษัท เทคโนโลยีชั้นนำที่มีชื่อเสียง ได้แก่Peter Thiel , Amazon Web Services และ Musk ได้มอบเงิน 1 พันล้านดอลลาร์ให้กับOpenAIซึ่งเป็น บริษัท ที่ไม่แสวงหาผลกำไรที่มุ่งสนับสนุนการพัฒนา AI อย่างมีความรับผิดชอบ [259]ความเห็นของผู้เชี่ยวชาญในสาขาปัญญาประดิษฐ์ผสมกันโดยมีเศษส่วนขนาดใหญ่ทั้งที่เกี่ยวข้องและไม่กังวลกับความเสี่ยงจาก AI ที่มีความสามารถเหนือมนุษย์ในที่สุด [260]ผู้นำในอุตสาหกรรมเทคโนโลยีอื่น ๆ เชื่อว่าปัญญาประดิษฐ์มีประโยชน์ในรูปแบบปัจจุบันและจะช่วยเหลือมนุษย์ต่อไป Mark Hurdซีอีโอของ Oracle ระบุว่า AI "จะสร้างงานได้มากขึ้นไม่ใช่งานน้อยลง" เนื่องจากมนุษย์จะต้องใช้ในการจัดการระบบ AI [261] Mark Zuckerbergซีอีโอของ Facebook เชื่อว่า AI จะ "ปลดล็อกสิ่งดีๆจำนวนมาก" เช่นการรักษาโรคและเพิ่มความปลอดภัยให้กับรถยนต์ที่เป็นอิสระ [262]ในเดือนมกราคม 2015 Musk บริจาคเงิน 10 ล้านดอลลาร์ให้กับFuture of Life Instituteเพื่อเป็นทุนในการวิจัยเกี่ยวกับการทำความเข้าใจการตัดสินใจของ AI เป้าหมายของสถาบันคือ "เพิ่มพูนภูมิปัญญาโดยที่เราจัดการ" พลังที่เพิ่มขึ้นของเทคโนโลยี Musk ยังให้ทุนแก่ บริษัท ที่พัฒนาปัญญาประดิษฐ์เช่นDeepMindและVicariousเพื่อ "จับตาดูสิ่งที่เกิดขึ้นกับปัญญาประดิษฐ์[263]ฉันคิดว่าอาจมีผลลัพธ์ที่เป็นอันตรายที่นั่น" [264] [265]
เพื่อให้ตระหนักถึงอันตรายของ AI ขั้นสูงที่ไม่สามารถควบคุมได้ AI ที่สมมุติขึ้นจะต้องเอาชนะหรือคิดเอาเองทั้งหมดของมนุษยชาติซึ่งผู้เชี่ยวชาญส่วนน้อยให้เหตุผลว่ามีความเป็นไปได้มากพอในอนาคตที่จะไม่คุ้มค่ากับการค้นคว้า [266] [267] การตอบโต้อื่น ๆ หมุนรอบตัวมนุษย์ว่ามีคุณค่าจากภายในหรือในเชิงบรรจบกันจากมุมมองของปัญญาประดิษฐ์ [268]
ระเบียบข้อบังคับ
การควบคุมปัญญาประดิษฐ์คือการพัฒนานโยบายและกฎหมายของภาครัฐเพื่อส่งเสริมและควบคุมปัญญาประดิษฐ์ (AI) [269] [270]ดังนั้นจึงเป็นเรื่องที่เกี่ยวข้องกับการที่กว้างขึ้นกฎระเบียบของอัลกอริทึม แนวปฏิบัติด้านกฎระเบียบและนโยบายสำหรับ AI เป็นปัญหาที่เกิดขึ้นใหม่ในเขตอำนาจศาลทั่วโลกรวมถึงในสหภาพยุโรป [271]กฎระเบียบถือเป็นสิ่งที่จำเป็นในการส่งเสริม AI และจัดการความเสี่ยงที่เกี่ยวข้อง [272] [273]กฎระเบียบของ AI ผ่านกลไกต่างๆเช่นคณะกรรมการทบทวนนอกจากนี้ยังสามารถมองเห็นเป็นวิธีการทางสังคมในการเข้าหาปัญหาการควบคุม AI [274]
ในนิยาย

ความคิดความสามารถในสิ่งมีชีวิตเทียมปรากฏเป็นนิทานอุปกรณ์มาตั้งแต่สมัยโบราณ, [37]และได้รับรูปแบบถาวรในนิยายวิทยาศาสตร์
ธรรมดาเปรียบเทียบในผลงานเหล่านี้เริ่มต้นด้วยแมรีเชลลีย์ 's Frankensteinที่สร้างมนุษย์จะกลายเป็นภัยคุกคามต่อปริญญาโทของมัน ซึ่งรวมถึงผลงานเช่นArthur C. Clarke'sและStanley Kubrick's 2001: A Space Odyssey (ทั้งปี 1968) พร้อมHAL 9000คอมพิวเตอร์สังหารที่รับผิดชอบยานอวกาศDiscovery OneรวมถึงThe Terminator (1984) และThe Matrix (1999 ). ในทางตรงกันข้ามหุ่นยนต์ผู้ภักดีที่หายากเช่น Gort จากThe Day the Earth Stood Still (1951) และ Bishop จากAliens (1986) มีความโดดเด่นน้อยกว่าในวัฒนธรรมสมัยนิยม [275]
Isaac Asimov ได้นำเสนอThree Laws of Roboticsในหนังสือและเรื่องราวต่างๆมากมายโดยเฉพาะชุด "Multivac" เกี่ยวกับคอมพิวเตอร์อัจฉริยะที่มีชื่อเดียวกัน กฎหมายของ Asimov มักจะถูกนำมาใช้ในระหว่างการอภิปรายเรื่องจริยธรรมของเครื่องจักร [276]ในขณะที่นักวิจัยด้านปัญญาประดิษฐ์เกือบทั้งหมดคุ้นเคยกับกฎหมายของ Asimov ผ่านวัฒนธรรมสมัยนิยม แต่โดยทั่วไปแล้วพวกเขาถือว่ากฎหมายนั้นไร้ประโยชน์ด้วยเหตุผลหลายประการซึ่งหนึ่งในนั้นคือความคลุมเครือของพวกเขา [277]
Transhumanism (ผสมของมนุษย์และเครื่องจักร) คือการสำรวจในมังงะ ผีในกะลาและนิยายวิทยาศาสตร์ชุดDune ในช่วงปี 1980 ซีรีส์ Sexy Robots ของศิลปินHajime Sorayamaได้ถูกวาดและตีพิมพ์ในญี่ปุ่นโดยแสดงให้เห็นถึงรูปร่างของมนุษย์ออร์แกนิกที่มีผิวโลหะเหมือนจริงและต่อมาก็มีหนังสือ "the Gynoids" ตามมาซึ่งผู้ผลิตภาพยนตร์ใช้หรือมีอิทธิพลเช่นGeorge Lucasและคนอื่น ๆ โฆษณา โซรายามะไม่เคยคิดว่าหุ่นยนต์ออร์แกนิกเหล่านี้เป็นส่วนหนึ่งของธรรมชาติที่แท้จริง แต่มักจะเป็นผลผลิตที่ผิดธรรมชาติของจิตใจมนุษย์ซึ่งเป็นจินตนาการที่มีอยู่ในจิตใจแม้ว่าจะตระหนักในรูปแบบที่แท้จริง
งานหลายชิ้นใช้ AI เพื่อบังคับให้เราเผชิญหน้ากับคำถามพื้นฐานที่ว่าอะไรทำให้เราเป็นมนุษย์แสดงให้เราเห็นสิ่งมีชีวิตเทียมที่มีความสามารถในการรู้สึกและทำให้เราต้องทนทุกข์ทรมาน สิ่งนี้ปรากฏในRURของKarel Čapekภาพยนตร์เรื่องAI Artificial IntelligenceและEx Machinaรวมถึงนวนิยายเรื่องDo Androids Dream of Electric Sheep? โดยฟิลิปเคดิ๊ก ดิ๊กคิดว่าความเข้าใจของเราเกี่ยวกับอัตวิสัยของมนุษย์ถูกเปลี่ยนแปลงโดยเทคโนโลยีที่สร้างขึ้นด้วยปัญญาประดิษฐ์ [278]
ดูสิ่งนี้ด้วย
- AI ที่เพิ่มขึ้น
- ปัญหาการควบคุม AI
- การแข่งขันอาวุธปัญญาประดิษฐ์
- อัลกอริธึมการเลือกพฤติกรรม
- ระบบอัตโนมัติของกระบวนการทางธุรกิจ
- การให้เหตุผลตามกรณี
- วิทยาศาสตร์พลเมือง
- อัลกอริทึมฉุกเฉิน
- เพศหญิงที่ใช้เทคโนโลยี AI
- คำศัพท์เกี่ยวกับปัญญาประดิษฐ์
- กฎระเบียบของปัญญาประดิษฐ์
- กระบวนการอัตโนมัติของหุ่นยนต์
- ปัญญาสังเคราะห์
- รายได้พื้นฐานสากล
- AI ที่อ่อนแอ
บันทึกคำอธิบาย
- ^ การกระทำของสเปกผลตอบแทนที่สามารถตัวเองจะเป็นทางการหรือโดยอัตโนมัติกลายเป็น "ฟังก์ชั่นได้รับรางวัล "
- ^ ศัพท์แตกต่างกันไป ดูลักษณะเฉพาะขั้นตอนวิธีการ
- ^ ช่องโหว่ของฝ่ายตรงข้ามอาจส่งผลให้เกิดระบบที่ไม่เป็นเชิงเส้นหรือจากการรบกวนที่ไม่ใช่รูปแบบ บางระบบมีความเปราะบางมากจนการเปลี่ยนแปลงพิกเซลตรงข้ามเพียงจุดเดียวทำให้เกิดการจัดประเภทที่ไม่ถูกต้อง
- ^ Alan Turingกล่าวถึงศูนย์กลางของการเรียนรู้ในช่วงต้นปี 1950 ในเอกสารคลาสสิกของเขา " Computing Machinery and Intelligence " [125]ในปีพ. ศ. 2499 ในการประชุมภาคฤดูร้อนของ Dartmouth AI Ray Solomonoffได้เขียนรายงานเกี่ยวกับการเรียนรู้ของเครื่องที่น่าจะเป็นที่ไม่ได้รับการดูแล: "An Inductive Inference Machine" [126]
- ^ นี่เป็นรูปแบบหนึ่งของคำจำกัดความของแมชชีนเลิร์นนิงที่ยกมาของ Tom Mitchell : "โปรแกรมคอมพิวเตอร์ได้รับการตั้งค่าให้เรียนรู้จากประสบการณ์ Eเกี่ยวกับงานบางอย่าง Tและการวัดประสิทธิภาพบางอย่าง Pหากประสิทธิภาพของ Tตามที่ Pวัดได้ดีขึ้น ด้วยประสบการณ์ E. "
- ^ Nils Nilssonเขียนว่า: "พูดง่ายๆก็คือมีความไม่เห็นด้วยอย่างกว้างขวางในสนามเกี่ยวกับ AI คืออะไร" [166]
- ^ กรณีที่น่าทึ่งที่สุดย่อยสัญลักษณ์ AI ถูกผลักลงในพื้นหลังเป็นวิจารณ์การทำลายล้างของเพอร์เซปตรอนโดยมาร์วินมินสกีและ Seymour Papertในปี 1969 ดูประวัติของ AI ,ฤดูหนาว AIหรือแฟรงก์ Rosenblatt [ ต้องการอ้างอิง ]
- ^ ในขณะที่ "ชัยชนะของ neats" อาจเป็นผลมาจากการที่ภาคสนามมีความเป็นผู้ใหญ่มากขึ้น แต่ AIMAระบุว่าในทางปฏิบัติทั้งแนวทางที่เรียบร้อยและไร้สาระยังคงมีความจำเป็นในการวิจัย AI
- ^ Dreyfus วิพากษ์วิจารณ์เงื่อนไขที่จำเป็นของสมมติฐานระบบสัญลักษณ์ทางกายภาพซึ่งเขาเรียกว่า "สมมติฐานทางจิตวิทยา": "จิตใจสามารถมองได้ว่าเป็นอุปกรณ์ที่ทำงานบนข้อมูลเล็กน้อยตามกฎเกณฑ์ที่เป็นทางการ" [207]
- ^ ในช่วงต้นทศวรรษ 1970 Kenneth Colby ได้นำเสนอ ELIZAของ Weizenbaum ที่รู้จักกันในชื่อ DOCTOR ซึ่งเขาส่งเสริมให้เป็นเครื่องมือในการรักษาที่จริงจัง [216]
- ^ สิ่งนี้มีพื้นฐานมาจาก Mary's Roomซึ่งเป็นการทดลองทางความคิดที่เสนอโดย Frank Jacksonในปี 1982
- ^ เวอร์ชันนี้มาจาก Searle (1999)และยังอ้างถึงใน Dennett 1991 , p. 435 สูตรดั้งเดิมของ Searle คือ "คอมพิวเตอร์ที่ตั้งโปรแกรมอย่างเหมาะสมนั้นเป็นสิ่งสำคัญจริงๆในแง่ที่ว่าคอมพิวเตอร์ที่ได้รับโปรแกรมที่เหมาะสมสามารถพูดได้ตามตัวอักษรว่าเข้าใจและมีสภาวะการรับรู้อื่น ๆ " [229] Strong AI ถูกกำหนดในทำนองเดียวกันโดย Russell & Norvig (2003 , p.947) : "การยืนยันว่าเครื่องจักรสามารถทำงานได้อย่างชาญฉลาด (หรืออาจจะดีกว่าทำตัวราวกับว่ามันฉลาด) เรียกว่าสมมติฐาน 'AI ที่อ่อนแอ' โดยนักปรัชญาและการยืนยันว่าเครื่องจักรที่ทำเช่นนั้นกำลังคิดจริง (ซึ่งตรงข้ามกับการจำลอง คิด) เรียกว่าสมมติฐาน "AI ที่แข็งแกร่ง" "
อ้างอิง
- ^ พูล Mackworth & Goebel 1998 , P 1 .
- ^ รัสเซลและ Norvig 2003พี 55.
- ^ a b c นิยามของ AI เป็นการศึกษาตัวแทนอัจฉริยะ :
- Poole, Mackworth & Goebel (1998)ซึ่งมีเวอร์ชันที่ใช้ในบทความนี้ ผู้เขียนเหล่านี้ใช้คำว่า "ปัญญาเชิงคำนวณ" เป็นคำพ้องความหมายของปัญญาประดิษฐ์ [1]
- รัสเซลและนอร์วิก (2003) (ซึ่งชอบคำว่า "ตัวแทนเหตุผล") และเขียนว่า "มุมมองตัวแทนทั้งหมดได้รับการยอมรับอย่างกว้างขวางในสาขานี้แล้ว" [2]
- ค๊อ 1998
- Legg & Hutter 2007
- ^ รัสเซลและ Norvig 2009พี 2.
- ^ McCorduck 2004พี 204
- ^ Maloof, Mark "ปัญญาประดิษฐ์:. บทนำพี 37" (PDF) georgetown.edu . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 25 สิงหาคม 2018
- ^ "วิธี AI กำลังจะเฮ่การเปลี่ยนแปลงในความสามารถการบริหารจัดการทรัพยากรบุคคลและเทค" Hackernoon ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 กันยายน 2019 สืบค้นเมื่อ14 กุมภาพันธ์ 2563 .
- ^ Schank, Roger C. (1991). "ไออยู่ไหน". นิตยสาร AI ฉบับ. 12 เลขที่ 4. หน้า 38.
- ^ รัสเซลและ Norvig 2009
- ^ ก ข "AlphaGo - กูเกิลดีปไมด์" สืบค้นจากต้นฉบับเมื่อ 10 มีนาคม 2559.
- ^ ก ข โบว์ลิ่งไมเคิล; เบิร์ช, นีล; โยฮันสัน, ไมเคิล; Tammelin, Oskari (9 มกราคม 2558). "หัวขึ้นโป๊กเกอร์ขีด จำกัด Hold'em จะแก้ไข" วิทยาศาสตร์ . 347 (6218): 145–149 รหัสไปรษณีย์ : 2015Sci ... 347..145B . ดอย : 10.1126 / science.1259433 . ISSN 0036-8075 PMID 25574016 . S2CID 3796371
- ^ Allen, Gregory (เมษายน 2020) “ Department of Defense Joint AI Center - ความเข้าใจเทคโนโลยี AI” (PDF) . AI.mil - เว็บไซต์อย่างเป็นทางการของกระทรวงกลาโหมร่วมประดิษฐ์ Intelligence Center เก็บถาวร (PDF)จากเดิมในวันที่ 21 เมษายน 2020 สืบค้นเมื่อ25 เมษายน 2563 .
- ^ a b การ มองโลกในแง่ดีของ AI ยุคแรก: * อ้างของHerbert Simon : Simon 1965 , p. 96 อ้างในCrevier 1993 , p. 109. * คำพูดของMarvin Minsky : Minsky 1967 , p. 2 อ้างในCrevier 1993 , p. 109.
- ^ ขค บูม 1980: การเพิ่มขึ้นของระบบผู้เชี่ยวชาญ , โครงการรุ่นที่ห้า , Alvey , MCC , SCI : * McCorduck 2004 ., PP 426-441 * Crevier 1993 , หน้า 161–162,197–203, 211, 240 * Russell & Norvig 2003 , p. 24 * NRC 1999 , หน้า 210–211 * Newquist 1994 , หน้า 235–248
- ^ a b First AI Winter , Mansfield Amendment , Lighthill report * Crevier 1993 , pp. 115–117 * Russell & Norvig 2003 , p. 22 * NRC 1999 , หน้า 212–213 * Howe 1994 * Newquist 1994 , หน้า 189–201
- ^ a b ฤดูหนาว AIที่สอง: * McCorduck 2004 , หน้า 430–435 * Crevier 1993 , หน้า 209–210 * NRC 1999 , หน้า 214–216 * Newquist 1994 , หน้า 301–318
- ^ a b c AI ประสบความสำเร็จอย่างมหาศาลในต้นศตวรรษที่ 21 * Clark 2015b
- ^ แฮนลีน, ไมเคิล; Kaplan, Andreas (2019). "บทสรุปประวัติความเป็นมาของปัญญาประดิษฐ์: ในอดีตปัจจุบันและอนาคตของปัญญาประดิษฐ์" ทบทวนการบริหารจัดการของรัฐแคลิฟอร์เนีย 61 (4): 5–14. ดอย : 10.1177 / 0008125619864925 . ISSN 0008-1256 S2CID 199866730 .
- ^ a b Pamela McCorduck (2004 , น. 424) เขียนถึง "การแตกละเอียดอย่างคร่าวๆของ AI ในฟิลด์ย่อย - การมองเห็นภาษาธรรมชาติทฤษฎีการตัดสินใจอัลกอริธึมทางพันธุกรรมหุ่นยนต์ ... และสิ่งเหล่านี้มีฟิลด์ย่อยของตัวเองซึ่งแทบจะไม่มีอะไรจะพูดถึงกัน"
- ^ a b c รายการลักษณะที่ชาญฉลาดนี้อ้างอิงจากหัวข้อที่ครอบคลุมโดยหนังสือเรียน AI ที่สำคัญ ได้แก่ : * Russell & Norvig 2003 * Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
- ^ Kolata 1982
- ^ ชง 2006
- ^ a b c ความฉลาดทางชีวภาพกับความฉลาดโดยทั่วไป:
- Russell & Norvig 2003 , หน้า 2–3 ที่ให้คล้ายคลึงกับวิศวกรรมการบิน
- McCorduck 2004 , หน้า 100–101 ซึ่งเขียนว่ามี "ปัญญาประดิษฐ์ 2 สาขาหลัก ๆ คือสาขาหนึ่งมุ่งเป้าไปที่การสร้างพฤติกรรมที่ชาญฉลาดโดยไม่คำนึงว่าจะสำเร็จได้อย่างไรและอีกสาขาหนึ่งมุ่งเป้าไปที่การสร้างแบบจำลองกระบวนการอัจฉริยะที่พบในธรรมชาติโดยเฉพาะอย่างยิ่งมนุษย์"
- Kolata 1982บทความในScienceซึ่งอธิบายถึงความไม่สนใจของ McCarthyต่อแบบจำลองทางชีววิทยา Kolata อ้างคำพูดของ McCarthy ว่าเป็นงานเขียน: "นี่คือ AI ดังนั้นเราจึงไม่สนใจว่ามันจะเป็นเรื่องจริงในทางจิตวิทยาหรือไม่" [21]เมื่อเร็ว ๆ นี้แม็คคาร์ธีกล่าวย้ำจุดยืนของเขาในการประชุมAI @ 50ซึ่งเขากล่าวว่า "ปัญญาประดิษฐ์ไม่ใช่การจำลองปัญญาของมนุษย์ตามนิยาม" [22]
- ^ a b c Neats vs. scruffies : * McCorduck 2004 , pp. 421–424, 486–489 * Crevier 1993หน้า 168 * ค๊ 1983 , หน้า 10–11
- ^ a b Symbolic vs. sub-symbolic AI: * Nilsson (1998 , p. 7) ซึ่งใช้คำว่า "sub-symbolic"
- ^ a b หน่วยสืบราชการลับทั่วไป ( AI ที่แข็งแกร่ง ) ถูกกล่าวถึงในบทนำที่เป็นที่นิยมสำหรับ AI: * Kurzweil 1999และKurzweil 2005
- ^ ดูข้อเสนอของดาร์ทเมาท์ภายใต้ปรัชญาด้านล่าง
- ^ McCorduck 2004พี 34.
- ^ McCorduck 2004พี xviii.
- ^ McCorduck 2004พี 3.
- ^ McCorduck 2004 , PP. 340-400
- ^ ข นี้เป็นความคิดกลางของพาเมลาแมคคอร์ดัก 's เครื่องที่คิด เธอเขียน:
- "ฉันชอบคิดว่าปัญญาประดิษฐ์คือการทำลายล้างทางวิทยาศาสตร์ของประเพณีทางวัฒนธรรมที่น่าเคารพ" [28]
- "ปัญญาประดิษฐ์ในรูปแบบใดรูปแบบหนึ่งเป็นความคิดที่แพร่กระจายไปทั่วประวัติศาสตร์ทางปัญญาของตะวันตกซึ่งเป็นความฝันที่จำเป็นเร่งด่วนในการรับรู้" [29]
- "ประวัติศาสตร์ของเราเต็มไปด้วยความพยายามไม่ว่าจะเป็นเรื่องน่าขนลุกน่าขนลุกตลกจริงจังเป็นตำนานและเป็นเรื่องจริง - เพื่อสร้างปัญญาประดิษฐ์สร้างสิ่งที่จำเป็นสำหรับเราขึ้นมาใหม่โดยหลีกเลี่ยงวิธีการธรรมดาไปมาระหว่างตำนานกับความเป็นจริงจินตนาการของเราให้สิ่งที่ การประชุมเชิงปฏิบัติการของเราไม่สามารถทำได้เรามีส่วนร่วมเป็นเวลานานในรูปแบบการทำสำเนาตัวเองที่แปลกประหลาดนี้ " [30]
- ^ "สตีเฟนฮอว์คิงเชื่อ AI อาจจะเป็นมนุษย์ของความสำเร็จที่ผ่านมา" BetaNews 21 ตุลาคม 2559. สืบค้นเมื่อ 28 สิงหาคม 2560.
- ^ Lombardo P, Boehm I, Nairz K (2020) "RadioComics - ซานตาคลอสและอนาคตของรังสี" Eur J Radiol 122 (1): 108771. ดอย : 10.1016 / j.ejrad.2019.108771 PMID 31835078
- ^ ก ข ฟอร์ดมาร์ติน; Colvin, Geoff (6 กันยายน 2558). "หุ่นยนต์จะสร้างงานมากกว่าที่พวกเขาทำลายหรือไม่" . เดอะการ์เดียน . สืบค้นจากต้นฉบับเมื่อวันที่ 16 มิถุนายน 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
- ^ a b แอปพลิเคชัน AI ที่ใช้กันอย่างแพร่หลายในเบื้องหลัง: * Russell & Norvig 2003 , p. 28 * Kurzweil 2005 , หน้า 265 * NRC 1999 , หน้า 216–222 * Newquist 1994 , หน้า 189–201
- ^ a b AI ในตำนาน: * McCorduck 2004 , หน้า 4–5 * รัสเซลและนอร์วิก 2003 , p. 939
- ^ AI ในนิยายวิทยาศาสตร์ยุคแรก * McCorduck 2004 , หน้า 17–25
- ^ การ ให้เหตุผลอย่างเป็นทางการ: * เบอร์ลินสกีเดวิด (2000) จุติของอัลกอริทึม หนังสือ Harcourt ISBN 978-0-15-601391-8. OCLC 46890682 สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- ^ Turing, Alan (1948), "Machine Intelligence", ใน Copeland, B. Jack (ed.), The Essential Turing: แนวคิดที่ก่อให้เกิดยุคคอมพิวเตอร์ออกซ์ฟอร์ด: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
- ^ รัสเซลและ Norvig 2009พี 16.
- ^ Dartmouth conference : * McCorduck 2004 , หน้า 111–136 * Crevier 1993 , หน้า 47–49 ซึ่งเขียนว่า "โดยทั่วไปการประชุมนี้ได้รับการยอมรับว่าเป็นวันเกิดอย่างเป็นทางการของวิทยาศาสตร์ใหม่" * รัสเซลและนอร์วิก 2003 , p. 17 ซึ่งเรียกการประชุมว่า "กำเนิดปัญญาประดิษฐ์" * NRC 2542 , หน้า 200–201
- ^ แม็คคาร์ธีจอห์น (2531) "การทบทวนคำถามของปัญญาประดิษฐ์ " พงศาวดารของประวัติศาสตร์ของคอมพิวเตอร์ 10 (3): 224–229.รวบรวมใน แม็คคาร์ธีจอห์น (2539) "10. การทบทวนคำถามของปัญญาประดิษฐ์ " ทุ่มวิจัยไอ: คอลเลกชันของบทความและความคิดเห็น CSLI, หน้า 73, "[O] เหตุผลในการคิดค้นคำว่า" ปัญญาประดิษฐ์ "คือการหลีกเลี่ยงการเชื่อมโยงกับ" ไซเบอร์เนติกส์ "ความเข้มข้นของคำติชมแบบอะนาล็อกดูเหมือนจะเข้าใจผิดและฉันต้องการหลีกเลี่ยงที่จะยอมรับ Norbert (ไม่ใช่ Robert) Wiener เป็นกูรูหรือต้องเถียงเขา”
- ^ ผู้เข้าร่วมการประชุม Dartmouth: * Russell & Norvig 2003 , p. 17 ซึ่งเขียนว่า "ในอีก 20 ปีข้างหน้าสนามจะถูกครอบงำโดยคนเหล่านี้และนักเรียนของพวกเขา" * McCorduck 2004 , หน้า 129–130
- ^ รัสเซลและ Norvig 2003พี 18: "มันน่าประหลาดใจทุกครั้งที่คอมพิวเตอร์ทำอะไรที่ฉลาด"
- ^ Schaeffer เจ (2009) ซามูเอลไม่ได้แก้เกมที่ ?. ใน: One Jump Ahead สปริงเกอร์บอสตันแมสซาชูเซตส์
- ^ Samuel, AL (กรกฎาคม 2502) "การศึกษาบางอย่างในการเรียนรู้ของเครื่องโดยใช้เกมหมากฮอส" วารสารการวิจัยและพัฒนาของไอบีเอ็ม . 3 (3): 210–229. CiteSeerX 10.1.1.368.2254 ดอย : 10.1147 / rd.33.0210 .
- ^ "ปีทอง " ของ AI (โปรแกรมการให้เหตุผลเชิงสัญลักษณ์ที่ประสบความสำเร็จในปี 2499-2516): * McCorduck 2004 , หน้า 243–252 * Crevier 1993 , หน้า 52–107 * Moravec 1988 , p. 9 * Russell & Norvig 2003 , หน้า 18–21 โปรแกรมที่อธิบายเป็นอาร์เธอร์ซามูเอล 's โปรแกรมหมากฮอสสำหรับIBM 701 , แดเนียล Bobrow ' s STUDENT , Newellและไซมอนของลอจิกทฤษฎีและเทอร์รี่ Winograd 's SHRDLU
- ^ DARPAทุ่มเงินให้กับการวิจัยบริสุทธิ์ที่ไม่ได้ชี้นำสู่ AI ในช่วงทศวรรษที่ 1960: * McCorduck 2004 , p. 131 * Crevier 1993 , หน้า 51, 64–65 * NRC 1999 , หน้า 204–205
- ^ AI ในอังกฤษ: * Howe 1994
- ^ ไลท์ฮิลล์ 1973
- ^ a b ระบบผู้เชี่ยวชาญ: * ACM 1998 , I.2.1 * Russell & Norvig 2003 , หน้า 22–24 * Luger & Stubblefield 2004 , หน้า 227–331 * Nilsson 1998 , chpt. 17.4 * McCorduck 2004 , หน้า 327–335, 434–435 * Crevier 1993 , หน้า 145–62, 197–203 * Newquist 1994 , หน้า 155–183
- ^ มธุรสช่างแกะก.; อิสมาอิลโมฮัมเหม็ด (8 พฤษภาคม 2532). อะนาล็อก VLSI การดำเนินงานของระบบประสาท (PDF) ซีรี่ส์นานาชาติ Kluwer ในสาขาวิศวกรรมศาสตร์และวิทยาการคอมพิวเตอร์ 80 . Norwell, MA: Kluwer วิชาการสำนักพิมพ์ ดอย : 10.1007 / 978-1-4613-1639-8 . ISBN 978-1-4613-1639-8. ที่เก็บไว้จากเดิม (PDF)เมื่อวันที่ 6 พฤศจิกายน 2019 สืบค้นเมื่อ24 มกราคม 2563 .
- ^ a b ควรใช้ วิธีการที่เป็นทางการแล้ว ("Victory of the neats "): * Russell & Norvig 2003 , pp. 25–26 * McCorduck 2004 , หน้า 486–487
- ^ McCorduck 2004 , PP. 480-483
- ^ Markoff 2011
- ^ "ถามผู้เชี่ยวชาญด้าน AI: อะไรคือความก้าวหน้าของ AI ในปัจจุบัน" . McKinsey & Company สืบค้นจากต้นฉบับเมื่อวันที่ 13 เมษายน 2018 . สืบค้นเมื่อ13 เมษายน 2561 .
- ^ แฟร์เฮดแฮร์รี่ (26 มีนาคม 2554) [อัพเดท 30 มีนาคม 2554] "Kinect ของ AI ก้าวหน้าอธิบาย" ฉันโปรแกรมเมอร์ สืบค้นจากต้นฉบับเมื่อวันที่ 1 กุมภาพันธ์ 2559.
- ^ Rowinski, Dan (15 มกราคม 2556). "ผู้ช่วยส่วนตัวเสมือนและอนาคตของมาร์ทโฟนของคุณ [Infographic]" ReadWrite สืบค้นเมื่อ 22 ธันวาคม 2558.
- ^ "ปัญญาประดิษฐ์: AlphaGo ของ Google เต้นต้นแบบไปอีเซดอล" ข่าวบีบีซี . 12 มีนาคม 2559. สืบค้นเมื่อ 26 สิงหาคม 2559 . สืบค้นเมื่อ1 ตุลาคม 2559 .
- ^ Metz, Cade (27 พฤษภาคม 2017). "หลังจากที่ชนะในประเทศจีนออกแบบ AlphaGo ของ AI สำรวจใหม่" อินเทอร์เน็ตแบบใช้สาย สืบค้นจากต้นฉบับเมื่อวันที่ 2 มิถุนายน 2017.
- ^ "การให้คะแนนของโลกไปเล่น" พฤษภาคม 2017. สืบค้นเมื่อวันที่ 1 เมษายน 2017.
- ^ "柯洁迎 19 岁生日雄踞人类世界排名第一已两年" (ในภาษาจีน). พฤษภาคม 2017 เก็บจากต้นฉบับเมื่อวันที่ 11 สิงหาคม 2017.
- ^ "MuZero: Mastering Go, หมากรุก, shogi และ Atari ไม่มีกฎ" Deepmind . สืบค้นเมื่อ1 มีนาคม 2564 .
- ^ สตีเวนโบโรวีค; Tracey Lien (12 มีนาคม 2559). "AlphaGo เต้นมนุษย์แชมป์ไปในขั้นสำหรับปัญญาประดิษฐ์" ลอสแองเจลิสไทม์ส . สืบค้นเมื่อ13 มีนาคม 2559 .
- ^ เงินเดวิด ; ฮิวเบิร์ต, โทมัส; ชริตต์ไวเซอร์, จูเลียน; อันโตกลู, อิโออันนิส; ลาย, แมทธิว; เกซ, อาเธอร์; แลงค็อต, มาร์ก; ซิเฟร, ลอเรนท์; คุมารัน, ดาร์ชาน; Graepel, Thore; ลิลลิแคปทิโมธี; Simonyan, กะเหรี่ยง; Hassabis, Demis (7 ธันวาคม 2018). "เสริมทั่วไปขั้นตอนวิธีการเรียนรู้ที่โทหมากรุก, shogi และผ่านตัวเองเล่น" วิทยาศาสตร์ . 362 (6419): 1140–1144 รหัสไปรษณีย์ : 2018Sci ... 362.1140S . ดอย : 10.1126 / science.aar6404 . PMID 30523106
- ^ ชริตต์ไวเซอร์, จูเลียน; อันโตกลู, อิโออันนิส; ฮิวเบิร์ต, โทมัส; Simonyan, กะเหรี่ยง; ซิเฟร, ลอเรนท์; ชมิตต์, ไซมอน; เกซ, อาเธอร์; ล็อกฮาร์ตเอ็ดเวิร์ด; ฮัสซาบิส, เดมิส; Graepel, Thore; Lillicrap, Timothy (23 ธันวาคม 2020). "Mastering Atari ไปหมากรุกและ shogi โดยการวางแผนที่มีรูปแบบการเรียนรู้" ธรรมชาติ . 588 (7839): 604–609 arXiv : 1911.08265 Bibcode : 2020Natur.588..604S . ดอย : 10.1038 / s41586-020-03051-4 . ISSN 1476-4687 PMID 33361790 S2CID 208158225
- ^ ตุง, เลี่ยม. "ปัญญาประดิษฐ์ DeepMind เอซของ Google ท้าทายการเล่นเกมอาตาริ" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
- ^ Solly, Meilan "นี่เล่นโป๊กเกอร์ AI รู้ว่าเมื่อใดจะถือ 'em และเมื่อการพับให้หมด" สมิ ธ โซเนียน .
Pluribus ได้นำเสนอผู้เชี่ยวชาญด้านโป๊กเกอร์ในซีรีส์เกม Texas Hold'em แบบไม่ จำกัด จำนวนผู้เล่นหกคนซึ่งบรรลุความสำเร็จครั้งสำคัญในการวิจัยปัญญาประดิษฐ์ เป็นบอทตัวแรกที่เอาชนะมนุษย์ในการแข่งขันแบบผู้เล่นหลายคนที่ซับซ้อน
- ^ a b คลาร์ก 2015b . "หลังจากครึ่งทศวรรษแห่งความก้าวหน้าอย่างเงียบ ๆ ในปัญญาประดิษฐ์ปี 2015 เป็นปีที่สำคัญคอมพิวเตอร์ฉลาดขึ้นและเรียนรู้ได้เร็วกว่าที่เคย"
- ^ "ด้วยปัญญาประดิษฐ์ Reshaping ธุรกิจ" MIT Sloan ทบทวนการบริหารจัดการ สืบค้นจากต้นฉบับเมื่อวันที่ 19 พฤษภาคม 2018 . สืบค้นเมื่อ2 พฤษภาคม 2561 .
- ^ Lorica, Ben (18 ธันวาคม 2017). "สถานะของการนำ AI มาใช้" . O'Reilly สื่อ สืบค้นจากต้นฉบับเมื่อวันที่ 2 พฤษภาคม 2018 . สืบค้นเมื่อ2 พฤษภาคม 2561 .
- ^ Allen, Gregory (6 กุมภาพันธ์ 2019). “ ทำความเข้าใจกลยุทธ์ AI ของจีน” . ศูนย์รักษาความปลอดภัยใหม่อเมริกัน สืบค้นจากต้นฉบับเมื่อวันที่ 17 มีนาคม 2019
- ^ "ทบทวน | วิธีมหาอำนาจทั้งสอง AI - สหรัฐฯและจีน - การต่อสู้เพื่ออำนาจสูงสุดในสนาม" วอชิงตันโพสต์ 2 พฤศจิกายน 2018. สืบค้นเมื่อวันที่ 4 พฤศจิกายน 2018 . สืบค้นเมื่อ4 พฤศจิกายน 2561 .
- ^ Anadiotis, George (1 ตุลาคม 2020). "รัฐของ AI ในปี 2020: ประชาธิปไตยอุตสาหกรรมและวิธีการทั่วไปปัญญาเทียม" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
- ^ Heath, Nick (11 ธันวาคม 2020). "อะไรคือ AI? ทุกสิ่งที่คุณจำเป็นต้องรู้เกี่ยวกับปัญญาประดิษฐ์" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
- ^ แคปแลน, อันเดรียส; Haenlein, Michael (1 มกราคม 2019). "สิริสิริอยู่ในมือฉัน: ใครคือผู้ที่ยุติธรรมที่สุดในแผ่นดินเกี่ยวกับการตีความภาพประกอบและผลกระทบของปัญญาประดิษฐ์" เปิดโลกทัศน์ธุรกิจ 62 (1): 15–25. ดอย : 10.1016 / j.bushor.2018.08.004 .
- ^ Domingos 2015 , บทที่ 5
- ^ Domingos 2015 , บทที่ 7
- ^ Lindenbaum เมตร Markovitch เอส & Rusakov, D. (2004) การสุ่มตัวอย่างแบบเลือกสำหรับลักษณนามเพื่อนบ้านที่ใกล้ที่สุด แมชชีนเลิร์นนิง, 54 (2), 125–152
- ^ Domingos 2015 , บทที่ 1
- ^ a b Intractability and efficiency and the Combinatorial Explosion : * Russell & Norvig 2003 , pp. 9, 21–22
- ^ Domingos 2015 , บทที่ 2 บทที่ 3
- ^ ฮาร์ท, PE; Nilsson, NJ; ราฟาเอลบี. (2515). "การแก้ไขเป็น" พื้นฐานอย่างเป็นทางการสำหรับการกำหนดเส้นทางต้นทุนขั้นต่ำแบบฮิวริสติก" " จดหมายข่าว SIGART (37): 28–29 ดอย : 10.1145 / 1056777.1056779 . S2CID 6386648
- ^ Domingos 2015 , บทที่ 2 บทที่ 4 บทที่ 6
- ^ "คอมพิวเตอร์เครือข่ายประสาทเทียมสามารถเรียนรู้จากประสบการณ์ได้หรือไม่และถ้าเป็นเช่นนั้นพวกเขาจะกลายเป็นสิ่งที่เราเรียกว่า 'สมาร์ท' ได้หรือไม่" . วิทยาศาสตร์อเมริกัน 2018. สืบค้นเมื่อ 25 มีนาคม 2018 . สืบค้นเมื่อ24 มีนาคม 2561 .
- ^ Domingos 2015บทที่ 6 บทที่ 7
- ^ Domingos 2015พี 286.
- ^ "การเปลี่ยนแปลงพิกเซลเดี่ยว fools โปรแกรม AI" ข่าวบีบีซี . 3 พฤศจิกายน 2560. สืบค้นเมื่อ 22 มีนาคม 2561 . สืบค้นเมื่อ12 มีนาคม 2561 .
- ^ "เอไอมีปัญหาอาการประสาทหลอนที่พิสูจน์ยากที่จะแก้ไข" WIRED 2561. สืบค้นเมื่อวันที่ 12 มีนาคม 2018 . สืบค้นเมื่อ12 มีนาคม 2561 .
- ^ "การปลูกฝังสามัญสำนึก | DiscoverMagazine.com" . นิตยสารค้นพบ 2017 ที่จัดเก็บจากเดิมในวันที่ 25 มีนาคม 2018 สืบค้นเมื่อ24 มีนาคม 2561 .
- ^ เดวิส, เออร์เนสต์; Marcus, Gary (24 สิงหาคม 2558). "การให้เหตุผลแบบสามัญและความรู้ทั่วไปในปัญญาประดิษฐ์" . การติดต่อสื่อสารของพลอากาศเอก 58 (9): 92–103 ดอย : 10.1145 / 2701413 . S2CID 13583137 สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ6 เมษายน 2563 .
- ^ Winograd, Terry (มกราคม 2515) “ การเข้าใจภาษาธรรมชาติ”. จิตวิทยาความรู้ความเข้าใจ . 3 (1): 1–191. ดอย : 10.1016 / 0010-0285 (72) 90002-3 .
- ^ "ไม่ต้องกังวล: รถยนต์อิสระไม่ได้มาในวันพรุ่งนี้ (หรือปีถัดไป)" AutoWeek 2559. สืบค้นเมื่อ 25 มีนาคม 2561 . สืบค้นเมื่อ24 มีนาคม 2561 .
- ^ อัศวินจะ (2017). "บอสตันอาจจะเป็นที่มีชื่อเสียงสำหรับการขับรถที่ไม่ดี แต่มันเป็นสนามทดสอบสำหรับรถที่ตนเองขับรถอย่างชาญฉลาด" รีวิวเทคโนโลยีเอ็มไอที สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ27 มีนาคม 2561 .
- ^ Prakken, Henry (31 สิงหาคม 2017). "ปัญหาในการสร้างยานยนต์อิสระให้เป็นไปตามกฎหมายจราจร" . ปัญญาประดิษฐ์และกฎหมาย 25 (3): 341–363 ดอย : 10.1007 / s10506-017-9210-0 .
- ^ ก ข ลิเอโต, อันโตนิโอ; เลบีแยร์คริสเตียน; Oltramari, Alessandro (พ.ค. 2018). "ระดับความรู้ในสถาปัตยกรรมองค์ความรู้: ข้อ จำกัด ในปัจจุบันและพัฒนาการที่เป็นไปได้". การวิจัยระบบความรู้ความเข้าใจ . 48 : 39–55. ดอย : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID 206868967
- ^ การแก้ปัญหาการไขปริศนาการเล่นเกมและการหักคะแนน: * Russell & Norvig 2003 , chpt 3–9 , * พูล, Mackworth & Goebel 1998 , chpt. 2,3,7,9, * Luger & Stubblefield 2004 , chpt. 3,4,6,8, * ค๊ 1998 , chpt. 7–12
- ^ การ ให้เหตุผลที่ไม่แน่นอน: * Russell & Norvig 2003 , pp. 452–644 , * Poole, Mackworth & Goebel 1998 , หน้า 345–395, * Luger & Stubblefield 2004 , หน้า 333–381, * Nilsson 1998 , chpt. 19
- ^ หลักฐานทางจิตวิทยาของการให้เหตุผลเชิงสัญลักษณ์ย่อย: * Wason & Shapiro (1966)แสดงให้เห็นว่าผู้คนทำปัญหาที่เป็นนามธรรมได้ไม่ดี แต่ถ้าปัญหาได้รับการแก้ไขใหม่เพื่อให้สามารถใช้ปัญญาทางสังคมที่ใช้งานง่ายประสิทธิภาพจะดีขึ้นอย่างมาก (ดูงานคัดเลือกของ Wason ) * Kahneman, Slovic & Tversky (1982)แสดงให้เห็นว่าผู้คนแย่มากในปัญหาเบื้องต้นที่เกี่ยวข้องกับการใช้เหตุผลที่ไม่แน่นอน (ดูรายการอคติทางปัญญาสำหรับหลาย ๆ ตัวอย่าง) * Lakoff & Núñez (2000)แย้งว่าแม้แต่ทักษะของเราในวิชาคณิตศาสตร์ก็ขึ้นอยู่กับความรู้และทักษะที่มาจาก "ร่างกาย" นั่นคือเซ็นเซอร์และทักษะการรับรู้ (ดูว่าคณิตศาสตร์มาจากไหน )
- ^ การ แสดงความรู้ : * ACM 1998 , I.2.4, * Russell & Norvig 2003 , หน้า 320–363 , * Poole, Mackworth & Goebel 1998 , หน้า 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger & Stubblefield 2004 , หน้า 227–243, * Nilsson 1998 , chpt. 18
- ^ วิศวกรรมความรู้ : * Russell & Norvig 2003 , pp. 260–266 , * Poole, Mackworth & Goebel 1998 , หน้า 199–233, * Nilsson 1998 , chpt. ≈17.1–17.4
- ^ เป็น ตัวแทนของหมวดหมู่และความสัมพันธ์:เครือข่ายความหมาย ,ลอจิกคำอธิบาย , การสืบทอด (รวมถึงเฟรมและสคริปต์ ): * Russell & Norvig 2003 , หน้า 349–354 , * Poole, Mackworth & Goebel 1998 , หน้า 174–177, * Luger & Stubblefield 2004 , หน้า 248–258, * Nilsson 1998 , chpt. 18.3
- ^ แทนเหตุการณ์ที่และเวลา:แคลคูลัสสถานการณ์ ,แคลคูลัสเหตุการณ์ ,แคลคูลัสคล่อง (รวมถึงการแก้ปัญหาเฟรม ): *รัสเซลและ Norvig 2003 ., PP 328-341 , * Poole, Mackworth & Goebel 1998 , หน้า 281–298, * Nilsson 1998 , chpt. 18.2
- ^ แคลคูลัสเชิงสาเหตุ : * Poole, Mackworth & Goebel 1998 , pp. 335–337
- ^ เป็น ตัวแทนของความรู้เกี่ยวกับความรู้: แคลคูลัสความเชื่อ,ลอจิกเชิงโมดอล : * Russell & Norvig 2003 , pp. 341–344 , * Poole, Mackworth & Goebel 1998 , หน้า 275–277
- ^ Sikos, Leslie F. (มิถุนายน 2017). คำอธิบาย Logics ในมัลติมีเดียเหตุผล จาม: สปริงเกอร์. ดอย : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID 3180114 สืบค้นเมื่อ 29 สิงหาคม 2560.
- ^ Ontology : * Russell & Norvig 2003 , หน้า 320–328
- ^ สโมเลียร์สตีเฟ่นดับเบิลยู.; จางหงเจียง (1994). "การจัดทำดัชนีและการดึงข้อมูลวิดีโอตามเนื้อหา" IEEE มัลติมีเดีย 1 (2): 62–72. ดอย : 10.1109 / 93.311653 . S2CID 32710913 .
- ^ นอยมันน์แบร์นด์; Möller, Ralf (มกราคม 2551). "การตีความฉากพร้อมลอจิกคำอธิบาย" คอมพิวเตอร์ภาพและการมองเห็น 26 (1): 82–101. ดอย : 10.1016 / j.imavis.2007.08.013 .
- ^ Kuperman, GJ; Reichley, RM; Bailey, TC (1 กรกฎาคม 2549). "การใช้ฐานความรู้ทางการค้าสำหรับสนับสนุนการตัดสินใจทางคลินิก: โอกาสอุปสรรคและข้อเสนอแนะ" วารสาร American Medical Informatics Association . 13 (4): 369–371 ดอย : 10.1197 / jamia.M2055 . PMC 1513681 PMID 16622160
- ^ MCGARRY, KEN (1 ธันวาคม 2548). "แบบสำรวจมาตรการความน่าสนใจสำหรับการค้นพบความรู้". ความรู้ทบทวนวิศวกรรม 20 (1): 39–61. ดอย : 10.1017 / S0269888905000408 . S2CID 14987656
- ^ เบอร์ตินี่, เอ็ม; เดลบิมโบ, เอ; Torniai, C (2549). "คำอธิบายประกอบอัตโนมัติและการดึงข้อมูลลำดับความหมายของวิดีโอโดยใช้มัลติมีเดียออนโทโลยี" MM '06 Proceedings of the 14th ACM international conference on Multimedia . การประชุมนานาชาติ ACM ครั้งที่ 14 เกี่ยวกับมัลติมีเดีย ซานตาบาร์บาร่า: ACM หน้า 679–682
- ^ ปัญหาคุณสมบัติ : * McCarthy & Hayes 1969 * Russell & Norvig 2003ต้องการหน้า ]ในขณะที่ McCarthy ให้ความสำคัญกับปัญหาในการแสดงการกระทำเชิงตรรกะเป็นหลัก แต่Russell & Norvig 2003 ใช้คำนี้กับปัญหาทั่วไปของการใช้เหตุผลเริ่มต้นในเครือข่ายสมมติฐานอันกว้างขวางที่อยู่ภายใต้ความรู้ทั่วไปทั้งหมดของเรา [
- ^ การ ให้เหตุผลเริ่มต้นและตรรกะเริ่มต้น ,ตรรกะที่ไม่ใช่เชิงเดี่ยว , การล้อมรอบ ,สมมติฐานโลกปิด ,การลักพาตัว (Poole et al.วางการลักพาตัวภายใต้ "การให้เหตุผลเริ่มต้น" Luger et al.วางสิ่งนี้ไว้ภายใต้ "การให้เหตุผลที่ไม่แน่นอน"): * Russell & Norvig 2003 , หน้า 354–360 , * Poole, Mackworth & Goebel 1998 , หน้า 248–256, 323–335, * Luger & Stubblefield 2004 , หน้า 335–363, * Nilsson 1998 , ~ 18.3.3
- ^ ความรู้ทั่วไป: * Russell & Norvig 2003 , p. 21 , * Crevier 1993 , หน้า 113–114, * Moravec 1988 , p. 13, * Lenat & Guha 1989 (บทนำ)
- ^ เดรย์ฟั & เดรย์ฟั 1986
- ^ Gladwell 2005
- ^ a b ความรู้ของผู้เชี่ยวชาญในฐานะสัญชาตญาณที่เป็นตัวเป็นตน : * Dreyfus & Dreyfus 1986 ( Hubert Dreyfusเป็นนักปรัชญาและนักวิจารณ์ AI ซึ่งเป็นคนกลุ่มแรก ๆ ที่โต้แย้งว่าความรู้ของมนุษย์ที่มีประโยชน์ที่สุดถูกเข้ารหัสแบบสัญลักษณ์ย่อยดูคำวิจารณ์ AI ของ Dreyfus ) * Gladwell 2005 (Gladwell's Blinkเป็นบทนำยอดนิยมเกี่ยวกับการให้เหตุผลและความรู้เชิงสัญลักษณ์ย่อย) * Hawkins & Blakeslee 2005 (Hawkins ระบุว่าความรู้เชิงสัญลักษณ์ย่อยควรเป็นจุดสนใจหลักของการวิจัย AI)
- ^ การวางแผน : * ACM 1998 , ~ I.2.8, * Russell & Norvig 2003 , หน้า 375–459 , * Poole, Mackworth & Goebel 1998 , หน้า 281–316, * Luger & Stubblefield 2004 , หน้า 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
- ^ ทฤษฎีคุณค่าของข้อมูล : * Russell & Norvig 2003 , pp. 600–604
- ^ การวางแผนแบบคลาสสิก: * Russell & Norvig 2003 , pp. 375–430 , * Poole, Mackworth & Goebel 1998 , หน้า 281–315, * Luger & Stubblefield 2004 , หน้า 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
- ^ การวางแผนและดำเนินการในโดเมนที่ไม่ได้กำหนด: การวางแผนตามเงื่อนไข, การตรวจสอบการดำเนินการ, การจำลองแบบและการวางแผนอย่างต่อเนื่อง: * Russell & Norvig 2003 , หน้า 430–449
- ^ การวางแผนหลายตัวแทนและพฤติกรรมฉุกเฉิน: * Russell & Norvig 2003 , pp. 449–455
- ^ ทัวริง 1950
- ^ Solomonoff 1956
- ^ a b การเรียนรู้ : * ACM 1998 , I.2.6, * Russell & Norvig 2003 , หน้า 649–788 , * Poole, Mackworth & Goebel 1998 , หน้า 397–438, * Luger & Stubblefield 2004 , หน้า 385–542, * Nilsson 1998 , chpt. 3.3, 10.3, 17.5, 20
- ^ จอร์แดนมิชิแกน; Mitchell, TM (16 กรกฎาคม 2558). "แมชชีนเลิร์นนิง: แนวโน้มมุมมองและผู้มีโอกาสเป็นลูกค้า" วิทยาศาสตร์ . 349 (6245): 255–260 รหัสไปรษณีย์ : 2015Sci ... 349..255J . ดอย : 10.1126 / science.aaa8415 . PMID 26185243 S2CID 677218 .
- ^ Reinforcement learning : * Russell & Norvig 2003 , pp. 763–788 * Luger & Stubblefield 2004 , หน้า 442–449
- ^ การประมวลผลภาษาธรรมชาติ : * ACM 1998 , I.2.7 * Russell & Norvig 2003 , หน้า 790–831 * Poole, Mackworth & Goebel 1998 , หน้า 91–104 * Luger & Stubblefield 2004 , หน้า 591–632
- ^ การ ประยุกต์ใช้การประมวลผลภาษาธรรมชาติรวมถึงการดึงข้อมูล (เช่น text mining ) และการแปลด้วยเครื่อง : * Russell & Norvig 2003 , pp. 840–857 , * Luger & Stubblefield 2004 , หน้า 623–630
- ^ แคมเบรียเอริก; White, Bebo (พ.ค. 2014). "Jumping NLP Curves: การทบทวนการวิจัยการประมวลผลภาษาธรรมชาติ [บทความทบทวน]" IEEE นิตยสารคำนวณหน่วยสืบราชการลับ 9 (2): 48–57. ดอย : 10.1109 / MCI.2014.2307227 . S2CID 206451986
- ^ Vincent, James (7 พฤศจิกายน 2019). "OpenAI มีการเผยแพร่ข้อความที่ก่อให้เกิด AI ก็กล่าวว่าเป็นอันตรายเกินไปที่จะหุ้น" The Verge . ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 มิถุนายน 2020 สืบค้นเมื่อ11 มิถุนายน 2563 .
- ^ การรับรู้ของเครื่องจักร : * Russell & Norvig 2003 , หน้า 537–581, 863–898 * ค๊ 1998 , ~ chpt. 6
- ^ การรู้จำเสียง : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , หน้า 568–578
- ^ การจดจำวัตถุ : * Russell & Norvig 2003 , pp. 885–892
- ^ วิสัยทัศน์คอมพิวเตอร์ : * ACM 1998 , I.2.10 * Russell & Norvig 2003 , หน้า 863–898 * ค๊ 1998 , chpt. 6
- ^ Robotics : * ACM 1998 , I.2.9, * Russell & Norvig 2003 , หน้า 901–942 , * Poole, Mackworth & Goebel 1998 , หน้า 443–460
- ^ การเคลื่อนย้ายและกำหนดค่าพื้นที่ : * Russell & Norvig 2003 , pp. 916–932
- ^ Tecuci 2012
- ^ การทำแผนที่หุ่นยนต์ (การแปลภาษา ฯลฯ ): * Russell & Norvig 2003 , pp. 908–915
- ^ กาเดน่า, ซีซาร์; คาร์โลเน่, ลูก้า; คาร์ริลโลเฮนรี่; ลาติฟ, ยาซีร์; สการามุซซ่า, ดาวิเด้; นีร่า, โจเซ่; เรดเอียน; Leonard, John J. (ธันวาคม 2559). "อดีตปัจจุบันและอนาคตของการแปลและการทำแผนที่พร้อมกัน: สู่ยุคการรับรู้ที่แข็งแกร่ง" รายการ IEEE เกี่ยวกับหุ่นยนต์ 32 (6): 1309–1332 arXiv : 1606.05830 รหัสไปรษณีย์ : 2016arXiv160605830C . ดอย : 10.1109 / TRO.2016.2624754 . S2CID 2596787
- ^ Moravec 1988พี 15.
- ^ Chan, Szu Ping (15 พฤศจิกายน 2558). "นี่คือสิ่งที่จะเกิดขึ้นได้เมื่อหุ่นยนต์ใช้ทั่วโลก" สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้น23 เมษายน 2561 .
- ^ “ เฟอร์นิเจอร์อิเกียกับขีด จำกัด ของ AI” . ดิอีโคโนมิสต์ 2018. สืบค้นเมื่อ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
- ^ "คิสเมท" . ห้องปฏิบัติการปัญญาประดิษฐ์ของ MIT กลุ่มหุ่นยนต์ฮิวแมนนอยด์ สืบค้นเมื่อ 17 ตุลาคม 2557 . สืบค้นเมื่อ25 ตุลาคม 2557 .
- ^ ทอมป์สัน, ดีเร็ก (2018). "หุ่นยนต์จะรับงานอะไร" . มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
- ^ Scassellati, Brian (2002). "ทฤษฎีจิตใจสำหรับหุ่นยนต์คล้ายมนุษย์". เขตปกครองตนเองหุ่นยนต์ 12 (1): 13–24. ดอย : 10.1023 / A: 1013298507114 . S2CID 19793 15 .
- ^ เฉา, หย่งแคน; หยูเหวินหวู่; เหรินเว่ย; Chen, Guanrong (กุมภาพันธ์ 2556). "ภาพรวมของความคืบหน้าล่าสุดในการศึกษาการประสานงานหลายตัวแทนแบบกระจาย" ธุรกรรมอีอีอีสารสนเทศอุตสาหกรรม 9 (1): 427–438 arXiv : 1207.3231 ดอย : 10.1109 / TII.2012.2219061 . S2CID 9588126
- ^ Thro 1993
- ^ Edelson 1991
- ^ เต๋า & ตาล 2548 .
- ^ โปเรีย, Soujanya; แคมเบรียเอริก; Bajpai, ราจีฟ; Hussain, Amir (กันยายน 2017). "การทบทวนการคำนวณเชิงอารมณ์: จากการวิเคราะห์รูปแบบเดียวที่จะฟิวชั่นต่อเนื่อง" ข้อมูลฟิวชั่น 37 : 98–125 ดอย : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
- ^ อารมณ์และการคำนวณเชิงอารมณ์ : * Minsky 2006
- ^ Waddell, Kaveh (2018). "chatbots ได้ป้อนหุบเขาลึกลับ" มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
- ^ เพ็ญนาชิน, ค.; Goertzel, B. (2007). "แนวทางร่วมสมัยสำหรับปัญญาประดิษฐ์ทั่วไป" ปัญญาประดิษฐ์ทั่วไป เทคโนโลยีความรู้ความเข้าใจ เบอร์ลินไฮเดลเบิร์ก: Springer ดอย : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
- ^ ก ข ค โรเบิร์ตส์เจคอบ (2016). "เครื่องคิด: ค้นหาประดิษฐ์" การกลั่น . ฉบับ. 2 ไม่ 2. หน้า 14–23 สืบค้นจากต้นฉบับเมื่อวันที่ 19 สิงหาคม 2018 . สืบค้นเมื่อ20 มีนาคม 2561 .
- ^ "ซูเปอร์ฮีโร่แห่งปัญญาประดิษฐ์: อัจฉริยะผู้นี้สามารถตรวจสอบได้หรือไม่" . เดอะการ์เดีย 16 กุมภาพันธ์ 2559. สืบค้นเมื่อ 23 เมษายน 2561 . สืบค้นเมื่อ26 เมษายน 2561 .
- ^ Mnih, โวโลดีเมียร์; Kavukcuoglu, โคเรย์; เงินเดวิด; รุสุ, อังเดรย.; เวเนส, โจเอล; เบลล์แมร์มาร์คจี; เกรฟส์อเล็กซ์; Riedmiller, มาร์ติน; Fidjeland, Andreas K. ; ออสตรอฟสกี้, เฟรด; ปีเตอร์เซน, สติก; บีตตี้, ชาร์ลส์; ซาดิค, อาเมียร์; อันโตกลู, อิโออันนิส; คิงเฮเลน; คุมารัน, ดาร์ชาน; Wierstra, Daan; Legg, เชน; Hassabis, Demis (26 กุมภาพันธ์ 2558). "การควบคุมระดับมนุษย์ผ่านการเรียนรู้แบบเสริมกำลังเชิงลึก". ธรรมชาติ . 518 (7540): 529–533 รหัสไปรษณีย์ : 2015Natur.518..529M . ดอย : 10.1038 / nature14236 . PMID 25719670 S2CID 205242740
- ^ ตัวอย่างเอียน (14 มีนาคม 2560). "DeepMind ของ Google ทำให้โปรแกรม AI ที่สามารถเรียนรู้ได้เหมือนมนุษย์" เดอะการ์เดีย สืบค้นเมื่อ 26 เมษายน 2018 . สืบค้นเมื่อ26 เมษายน 2561 .
- ^ "จากการไม่ทำงานไปสู่ระบบเครือข่ายประสาทเทียม" . ดิอีโคโนมิสต์ 2559. สืบค้นเมื่อ 31 ธันวาคม 2559 . สืบค้นเมื่อ26 เมษายน 2561 .
- ^ รัสเซลและ Norvig 2009บทที่ 27 ไอ: ปัจจุบันและอนาคต
- ^ Domingos 2015บทที่ 9 ชิ้นส่วนของจิ๊กซอว์ฤดูใบไม้ร่วงเข้าไปในสถานที่
- ^ a b ข้อโต้แย้งของสมองเทียม : AI ต้องการการจำลองการทำงานของสมองมนุษย์ * Russell & Norvig 2003 , p. 957 * Crevier 1993 , หน้า 271 และ 279 มีคนไม่กี่คนที่โต้แย้งในรูปแบบหนึ่ง: * Moravec 1988 * Kurzweil 2005 , p. 262 * Hawkins & Blakeslee 2005รูปแบบที่รุนแรงที่สุดของการโต้แย้งนี้ (สถานการณ์การเปลี่ยนสมอง) ถูกนำมาใช้โดยClark Glymourในช่วงกลางทศวรรษ 1970 และได้รับการสัมผัสจากZenon PylyshynและJohn Searleในปี 1980
- ^ เกิร์ตเซล, เบ็น; เหลียน, Ruiting; อาเรลอิตามาร์; เดอการิส, ฮิวโก้; Chen, Shuo (ธันวาคม 2553). "การสำรวจโลกของโครงการสมองเทียมตอนที่ 2: สถาปัตยกรรมความรู้ความเข้าใจที่ได้รับแรงบันดาลใจทางชีวภาพ" Neurocomputing 74 (1–3): 30–49. ดอย : 10.1016 / j.neucom.2010.08.012 .
- ^ ค๊ 2526น. 10.
- ^ สารตั้งต้นของ AI: * McCorduck 2004 , หน้า 51–107 * Crevier 1993 , หน้า 27–32 * Russell & Norvig 2003 , หน้า 15, 940 * Moravec 1988หน้า 3
- ^ Haugeland 1985 , PP. 112-117
- ^ Cognitive Simulation, Newellและ Simon , AI ที่ CMU (จากนั้นเรียกว่า Carnegie Tech ): * McCorduck 2004 , หน้า 139–179, 245–250, 322–323 (EPAM) * Crevier 1993 , หน้า 145–149
- ^ ทะยาน (ประวัติศาสตร์): * McCorduck 2004 , หน้า 450–451 * Crevier 1993 , หน้า 258–263
- ^ แมคคาร์และเอไอวิจัยที่เรือและประเทศศรีลังกา : * McCorduck 2004 ., PP 251-259 * Crevier 1993
- ^ การวิจัย AI ที่เอดินบะระและในฝรั่งเศสกำเนิด Prolog : * Crevier 1993 , pp. 193–196 * Howe 1994
- ^ AI ที่ MITภายใต้ Marvin Minskyในปี 1960: * McCorduck 2004 , pp. 259–305 * Crevier 1993 , หน้า 83–102, 163–176 * Russell & Norvig 2003 , p. 19
- ^ Cyc : * McCorduck 2004 , p. 489 ซึ่งเรียกสิ่งนี้ว่า "องค์กรที่ไร้ความปราณี " * Crevier 1993 , pp. 239–243 * Russell & Norvig 2003 , p. 363−365 * Lenat & Guha 1989
- ^ การปฏิวัติความรู้: * McCorduck 2004 , หน้า 266–276, 298–300, 314, 421 * Russell & Norvig 2003 , หน้า 22–23
- ^ เฟรดเดอริค, เฮย์ส - รอ ธ ; วิลเลียมเมอร์เรย์; ลีโอนาร์ดอเดลแมน “ ระบบผู้เชี่ยวชาญ”. AccessScience ดอย : 10.1036 / 1097-8542.248550 .
- ^ แนวทางที่เป็นตัวเป็นตนสำหรับ AI: * McCorduck 2004 , pp. 454–462 * Brooks 1990 * Moravec 1988
- ^ เก่งและคณะ 2001
- ^ Lungarella และคณะ 2003
- ^ Asada et al. 2552 .
- ^ Oudeyer 2010
- ^ Revival of connectionism : * Crevier 1993 , pp.214–215 * Russell & Norvig 2003 , p. 25
- ^ Computational intelligence * IEEE Computational Intelligence Society สืบค้นเมื่อ 9 พฤษภาคม 2008 ที่ Wayback Machine
- ^ ฮัทสัน, แมทธิว (16 กุมภาพันธ์ 2018). "ปัญญาประดิษฐ์ใบหน้าวิกฤตการทำซ้ำ" วิทยาศาสตร์ . หน้า 725–726 รหัสไปรษณีย์ : 2018Sci ... 359..725H . ดอย : 10.1126 / science.359.6377.725 . สืบค้นเมื่อ 29 เมษายน 2018 . สืบค้นเมื่อ28 เมษายน 2561 .
- ^ Norvig 2012
- ^ แลงลีย์ 2011
- ^ แคทซ์ 2012
- ^ ตัวแทนชาญฉลาดกระบวนทัศน์: *รัสเซลและ Norvig 2003 ., PP 27, 32-58, 968-972 * Poole, Mackworth & Goebel 1998 , pp. 7–21 * Luger & Stubblefield 2004 , pp. 235–240 * Hutter 2005 , pp. 125–126 คำจำกัดความที่ใช้ในบทความนี้ในแง่ของเป้าหมายการกระทำการรับรู้และสิ่งแวดล้อม , สืบเนื่องมาจากRussell & Norvig (2003) . คำจำกัดความอื่น ๆ ยังรวมถึงความรู้และการเรียนรู้เป็นเกณฑ์เพิ่มเติม
- ^ สถาปัตยกรรมตัวแทน ,ระบบอัจฉริยะไฮบริด : *รัสเซลและ Norvig (2003 ., PP 27, 932, 970-972) * ค๊ (1998 , chpt. 25)
- ^ ระบบควบคุมตามลำดับชั้น : * Albus 2002
- ^ ลิเอโต, อันโตนิโอ; Bhatt, Mehul; โอลตรามารี, อเลสซานโดร; Vernon, David (พ.ค. 2018). "บทบาทของสถาปัตยกรรมทางปัญญาในปัญญาประดิษฐ์ทั่วไป". การวิจัยระบบความรู้ความเข้าใจ . 48 : 1–3. ดอย : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID 36189683
- ^ a b Russell & Norvig 2009 , p. 1.
- ^ ก ข กระดาษสีขาว: ในปัญญาประดิษฐ์ - วิธียุโรปเพื่อความเป็นเลิศและความไว้วางใจ (PDF) บรัสเซลส์: คณะกรรมาธิการยุโรป 2020 น. 1.จัดเก็บ (PDF)จากเดิมในวันที่ 20 กุมภาพันธ์ 2020 สืบค้นเมื่อ20 กุมภาพันธ์ 2563 .
- ^ "AI ตั้งค่าให้เกินกำลังสมองของมนุษย์" . ซีเอ็นเอ็น . 9 สิงหาคม 2549. สืบค้นเมื่อ 19 กุมภาพันธ์ 2551.
- ^ การใช้ AI เพื่อทำนายความล่าช้าของเที่ยวบิน เก็บถาวรเมื่อวันที่ 20 พฤศจิกายน 2018 ที่ Wayback Machine , Ishti.org
- ^ เอ็น. Aletras; ง. Tsarapatsanis; ง. Preotiuc-Pietro; V. Lampos (2559). "การคาดการณ์การตัดสินของศาลของศาลสิทธิมนุษยชนยุโรป: มุมมองของการประมวลผลภาษาธรรมชาติ" PeerJ วิทยาการคอมพิวเตอร์ . 2 : e93 ดอย : 10.7717 / peerj-cs.93 .
- ^ "นักเศรษฐศาสตร์อธิบาย: ทำไม บริษัท ซ้อนเข้าไปในปัญญาประดิษฐ์" ดิอีโคโนมิสต์ 31 มีนาคม 2559. สืบค้นเมื่อวันที่ 8 พฤษภาคม 2559 . สืบค้นเมื่อ19 พฤษภาคม 2559 .
- ^ Lohr, Steve (28 กุมภาพันธ์ 2559). "สัญญาของปัญญาประดิษฐ์ในปูมขั้นตอนเล็ก ๆ" นิวยอร์กไทม์ส สืบค้นเมื่อ 29 กุมภาพันธ์ 2559 . สืบค้นเมื่อ29 กุมภาพันธ์ 2559 .
- ^ Frangoul, Anmar (14 มิถุนายน 2019). "ธุรกิจแคลิฟอร์เนียใช้ AI จะเปลี่ยนวิธีที่เราคิดเกี่ยวกับการจัดเก็บพลังงาน" ซีเอ็นบีซี ที่เก็บถาวรจากเดิมเมื่อวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ5 พฤศจิกายน 2562 .
- ^ Wakefield, Jane (15 มิถุนายน 2559). "โซเชียลมีเดีย 'เหนือกว่าทีวี' เป็นแหล่งข่าวคนรุ่นใหม่" . ข่าวบีบีซี . สืบค้นเมื่อ 24 มิถุนายน 2559.
- ^ Smith, Mark (22 กรกฎาคม 2559). "แล้วคุณคิดว่าคุณเลือกที่จะอ่านบทความนี้หรือไม่" . ข่าวบีบีซี . สืบค้นเมื่อ 25 กรกฎาคม 2559.
- ^ บราวน์ไอลีน "ครึ่งหนึ่งของชาวอเมริกันที่ไม่เชื่อข่าว deepfake สามารถกำหนดเป้าหมายได้ทางออนไลน์" ZDNet ที่เก็บถาวรจากเดิมเมื่อวันที่ 6 พฤศจิกายน 2019 สืบค้นเมื่อ3 ธันวาคม 2562 .
- ^ Zola, Andrew (12 เมษายน 2019). "เตรียมสัมภาษณ์: 40 คำถามปัญญาประดิษฐ์" บล็อก Springboard
- ^ การทดสอบทัวริง :
สิ่งพิมพ์ต้นฉบับของทัวริง: * Turing 1950 อิทธิพลทางประวัติศาสตร์และผลกระทบทางปรัชญา: * Haugeland 1985 , pp. 6–9 * Crevier 1993 , p. 24 * McCorduck 2004 , หน้า 70–71 * Russell & Norvig 2003 , หน้า 2–3 และ 948 - ^ ข้อเสนอของดาร์ทเมาท์: * McCarthy et al. 1955 (ข้อเสนอเดิม) * Crevier 1993 , p. 49 (ความสำคัญทางประวัติศาสตร์)
- ^ ทางกายภาพระบบสัญลักษณ์สมมติฐาน: * Newell และไซมอน 1976พี 116 * McCorduck 2004หน้า 153 * รัสเซลและนอร์วิก 2003 , p. 18
- ^ เดรย์ฟั 1992พี 156.
- ^ Dreyfus วิจารณ์ปัญญาประดิษฐ์ : * Dreyfus 1972 , Dreyfus & Dreyfus 1986 * Crevier 1993 , pp. 120–132 * McCorduck 2004 , หน้า 211–239 * Russell & Norvig 2003 , หน้า 950–952 ,
- ^ Gödel 1951 : ในการบรรยายนี้ Kurt Gödelใช้ทฤษฎีบทที่ไม่สมบูรณ์เพื่อให้ได้มาซึ่งความแตกแยกดังต่อไปนี้: (a) จิตใจของมนุษย์ไม่ใช่เครื่องจักร จำกัด ที่สอดคล้องกันหรือ (b) มีสมการไดโอแฟนไทน์ซึ่งไม่สามารถตัดสินใจได้ว่ามีวิธีแก้ปัญหาอยู่หรือไม่ . Gödelพบว่า (b) ไม่น่าเชื่อและดูเหมือนว่าจะเชื่อว่าจิตใจของมนุษย์ไม่เทียบเท่ากับเครื่องจักรที่ จำกัด กล่าวคือพลังของมันเกินกว่าเครื่องจักรที่ จำกัด ใด ๆ เขาจำได้ว่านี่เป็นเพียงการคาดเดาเนื่องจากไม่มีใครหักล้างได้ (b) กระนั้นเขาก็ถือว่าข้อสรุปที่ไม่ลงรอยกันนั้นเป็น "ข้อเท็จจริงบางประการ"
- ^ คำคัดค้านทางคณิตศาสตร์: * Russell & Norvig 2003 , p. 949 * McCorduck 2004 , หน้า 448–449 การคัดค้านทางคณิตศาสตร์: * Lucas 1961 * Penrose 1989หักล้างข้อโต้แย้งทางคณิตศาสตร์: * Turing 1950 ภายใต้ "(2) The Mathematical Objection" * Hofstadter 1979 ความเป็นมา: * Gödel 1931, Church 1936, Kleene 1935, Turing 1937
- ^ Graham Oppy (20 มกราคม 2558). "ทฤษฎีความไม่สมบูรณ์ของGödel" . สารานุกรมปรัชญาสแตนฟอร์ด . สืบค้นเมื่อ 22 เมษายน 2559 . สืบค้นเมื่อ27 เมษายน 2559 .
อย่างไรก็ตามข้อโต้แย้งต่อต้านกลไกของGödelianเหล่านี้เป็นปัญหาและมีความเห็นเป็นเอกฉันท์ว่าพวกเขาล้มเหลว
- ^ สจวร์ตเจรัสเซล ; ปีเตอร์นอร์วิก (2010). "26.1.2: รากฐานทางปรัชญา / AI ที่อ่อนแอ: เครื่องจักรสามารถกระทำอย่างชาญฉลาดได้หรือไม่ / การคัดค้านทางคณิตศาสตร์" ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (ฉบับที่ 3) Upper Saddle River, นิวเจอร์ซีย์: Prentice Hall ISBN 978-0-13-604259-4.
แม้ว่าเราจะให้สิทธิ์ว่าคอมพิวเตอร์มีข้อ จำกัด ในสิ่งที่สามารถพิสูจน์ได้ แต่ก็ไม่มีหลักฐานว่ามนุษย์มีภูมิคุ้มกันจากข้อ จำกัด เหล่านั้น
- ^ มาร์คโคลีวาน ความรู้เบื้องต้นเกี่ยวกับปรัชญาคณิตศาสตร์ สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ , 2012 จาก 2.2.2 'ความสำคัญทางปรัชญาของผลลัพธ์ที่ไม่สมบูรณ์ของGödel': "ภูมิปัญญาที่ได้รับการยอมรับ (ซึ่งฉันเห็นด้วย) คือการโต้แย้งของลูคัส - เพนโรสล้มเหลว"
- ^ อิโฟเฟน, รอน; Kritikos, Mihalis (3 มกราคม 2019). “ การควบคุมปัญญาประดิษฐ์และหุ่นยนต์: จริยธรรมโดยการออกแบบในสังคมดิจิทัล”. สังคมศาสตร์ร่วมสมัย . 16 (2): 170–184. ดอย : 10.1080 / 21582041.2018.1563803 . ISSN 2158-2041 S2CID 59298502 .
- ^ "จริยธรรม AI เรียนรู้สิทธิมนุษยชนกรอบ" เสียงของอเมริกา ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 พฤศจิกายน 2019 สืบค้นเมื่อ10 พฤศจิกายน 2562 .
- ^ Crevier 1993 , PP. 132-144
- ^ คำวิจารณ์ของ AI ของ Joseph Weizenbaum : * Weizenbaum 1976 * Crevier 1993 , pp.132–144 * McCorduck 2004 , pp. 356–373 * รัสเซลและนอร์วิก 2003 , p. 961 Weizenbaum (นักวิจัย AI ผู้พัฒนาโปรแกรมแชทบอทตัวแรกELIZA ) โต้แย้งในปี 2519 ว่าการใช้ปัญญาประดิษฐ์ในทางที่ผิดมีศักยภาพในการลดคุณค่าของชีวิตมนุษย์
- ^ วอลลาคเวนเดลล์ (2010). เครื่องคุณธรรม . สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด
- ^ วัล 2010 , PP. 37-54
- ^ วัล 2010 , PP. 55-73
- ^ Wallach 2010 , "บทนำ".
- ^ a b Michael Anderson และ Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press
- ^ ก ข “ จรรยาบรรณของเครื่องจักร” . aaai.org . ที่เก็บถาวรจากเดิมเมื่อวันที่ 29 พฤศจิกายน 2014
- ^ รูบินชาร์ลส์ (ฤดูใบไม้ผลิปี 2546) "ปัญญาประดิษฐ์และธรรมชาติของมนุษย์" . แอตแลนติใหม่ 1 : 88–100 สืบค้นจากต้นฉบับเมื่อ 11 มิถุนายน 2555.
- ^ Brooks, Rodney (10 พฤศจิกายน 2557). "ปัญญาประดิษฐ์เป็นเครื่องมือที่ไม่เป็นภัยคุกคาม" สืบค้นจากต้นฉบับเมื่อ 12 พฤศจิกายน 2557.
- ^ "สตีเฟนฮอว์คิง Elon Musk และบิลเกตส์เตือนเกี่ยวกับปัญญาประดิษฐ์" ผู้สังเกตการณ์ . 19 สิงหาคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ ชาลเมอร์สเดวิด (1995) “ เผชิญหน้ากับปัญหาอย่างมีสติ” . วารสารศึกษาสติ . 2 (3): 200–219. สืบค้นจากต้นฉบับเมื่อวันที่ 8 มีนาคม 2548 . สืบค้นเมื่อ11 ตุลาคม 2561 .ดูลิงค์นี้ เก็บไว้เมื่อ 8 เมษายน 2011 ที่Wayback Machine
- ^ Horst, Steven , (2005) "The Computational Theory of Mind" เก็บถาวรเมื่อ 11 กันยายน 2018 ที่ Wayback Machineในสารานุกรมปรัชญาสแตนฟอร์ด
- ^ เซิล 1980พี 1.
- ^ เซิลร์ห้องจีนอาร์กิวเมนต์: *เซิล 1980 การนำเสนอดั้งเดิมของ Searle เกี่ยวกับการทดลองทางความคิด *เซิร์ล 1999 . อภิปราย: * Russell & Norvig 2003 , pp. 958–960 * McCorduck 2004 , หน้า 443–445 * Crevier 1993 , หน้า 269–271
- ^ สิทธิของหุ่นยนต์ : * Russell & Norvig 2003 , p. 964 การคลอดก่อนกำหนดของ: * Henderson 2007ในนิยาย: * McCorduck (2004 , pp.190–25) กล่าวถึงFrankensteinและระบุประเด็นด้านจริยธรรมที่สำคัญเป็นความโอหังทางวิทยาศาสตร์และความทุกข์ทรมานของสัตว์ประหลาดเช่นสิทธิหุ่นยนต์
- ^ "หุ่นยนต์สามารถเรียกร้องสิทธิตามกฎหมาย" ข่าวบีบีซี . 21 ธันวาคม 2549. สืบค้นเมื่อ 15 ตุลาคม 2562 . สืบค้นเมื่อ3 กุมภาพันธ์ 2554 .
- ^ อีแวนส์วู้ดดี้ (2558). "สิทธิหลังมนุษย์: มิติของโลกทรานส์มนุษย์" . Teknokultura . 12 (2). ดอย : 10.5209 / rev_TK.2015.v12.n2.49072 .
- ^ Maschafilm "เนื้อหา: Plug & Pray ฟิล์ม - ปัญญาประดิษฐ์ - หุ่นยนต์ -" plugandpray-film.de . สืบค้นจากต้นฉบับเมื่อวันที่ 12 กุมภาพันธ์ 2559.
- ^ โอโมฮันโดรสตีฟ (2008). ธรรมชาติของตัวเองปรับปรุงปัญญาประดิษฐ์ นำเสนอและเผยแพร่ในการประชุม Singularity Summit ปี 2007 ที่ซานฟรานซิสโก
- ^ a b c เอกฐานทางเทคโนโลยี : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
- ^ Transhumanism : * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
- ^ AI เป็นวิวัฒนาการ: * Edward Fredkinอ้างถึงใน McCorduck (2004 , หน้า 401) . * บัตเลอร์ 1863 * Dyson 1998
- ^ "หุ่นยนต์และปัญญาประดิษฐ์" . www.igmchicago.org . เก็บถาวรไปจากเดิมในวันที่ 1 พฤษภาคม 2019 สืบค้นเมื่อ3 กรกฎาคม 2562 .
- ^ "การคำนวณขนาดของรางวัล: PwC ทั่วโลก AI ศึกษาการใช้ประโยชน์จากการปฏิวัติ AI" (PDF) สืบค้นเมื่อ11 พฤศจิกายน 2563 .
- ^ E McGaughey 'หุ่นยนต์จะทำให้งานของคุณเป็นไปโดยอัตโนมัติหรือไม่? การจ้างงานเต็มรูปแบบรายได้ขั้นพื้นฐานและประชาธิปไตยทางเศรษฐกิจ '(2018) SSRN ตอนที่ 2 (3) เก็บถาวร 24 พฤษภาคม 2018 ที่ Wayback Machine
- ^ "ระบบอัตโนมัติและความวิตกกังวล" . ดิอีโคโนมิสต์ 9 พฤษภาคม 2558. สืบค้นเมื่อ 12 มกราคม 2561 . สืบค้นเมื่อ13 มกราคม 2561 .
- ^ Lohr, Steve (2017). "หุ่นยนต์จะใช้งาน แต่ไม่เป็นอย่างที่บางคนกลัวรายงานใหม่ Says" นิวยอร์กไทม์ส สืบค้นจากต้นฉบับเมื่อวันที่ 14 มกราคม 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
- ^ เฟรย์, คาร์ลเบเนดิกต์; Osborne, Michael A (1 มกราคม 2017). "อนาคตของการจ้างงาน: งานมีความอ่อนไหวต่อการใช้คอมพิวเตอร์เพียงใด". พยากรณ์เทคโนโลยีและการเปลี่ยนแปลงทางสังคม 114 : 254–280 CiteSeerX 10.1.1.395.416 ดอย : 10.1016 / j.techfore.2016.08.019 . ISSN 0040-1625
- ^ Arntz เมลานีเทอร์รี่เกรกอรีและอู Zierahn "ความเสี่ยงของระบบอัตโนมัติสำหรับงานในประเทศ OECD: การวิเคราะห์เปรียบเทียบ" เอกสารการทำงานด้านสังคมการจ้างงานและการย้ายถิ่นของ OECD 189 (2016). น. 33.
- ^ Mahdawi, Arwa (26 มิถุนายน 2017). "สิ่งที่งานจะยังคงอยู่ในรอบ 20 ปีอ่านนี้เพื่อเตรียมความพร้อมในอนาคตของคุณ" เดอะการ์เดียน . สืบค้นจากต้นฉบับเมื่อวันที่ 14 มกราคม 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
- ^ Simon, Matt (1 เมษายน 2019). "แอนดรูยางของประธานาธิบดีเสนอราคาดังนั้นศตวรรษที่ 21 มาก" อินเทอร์เน็ตแบบใช้สาย ที่เก็บถาวรจากเดิมเมื่อวันที่ 24 มิถุนายน 2019 สืบค้นเมื่อ2 พฤษภาคม 2562 - ทาง www.wired.com.
- ^ "ผู้เชี่ยวชาญห้าแบ่งปันสิ่งที่พวกเขากลัวมากที่สุดเกี่ยวกับเอไอ" 5 กันยายน 2018. เก็บจากต้นฉบับเมื่อวันที่ 8 ธันวาคม 2019 . สืบค้นเมื่อ8 ธันวาคม 2562 .
- ^ Russel จวร์ต. ดาเนียลดิวอี้และแม็กซ์เท็กมาร์ก ลำดับความสำคัญของการวิจัยเพื่อปัญญาประดิษฐ์ที่แข็งแกร่งและเป็นประโยชน์ นิตยสาร AI 36: 4 (2558). 8 ธันวาคม 2559.
- ^ "ความเห็น: ข่าวร้ายปัญญาประดิษฐ์ลำเอียง" . CNA 12 มกราคม 2562. เก็บถาวรจากต้นฉบับวันที่ 12 มกราคม 2562 . สืบค้นเมื่อ19 มิถุนายน 2563 .
- ^ Jeff Larson, Julia Angwin (23 พฤษภาคม 2559). "วิธีการที่เราวิเคราะห์ COMPAS การกระทำผิดซ้ำขั้นตอนวิธีการ" ProPublica สืบค้นจากต้นฉบับเมื่อ 29 เมษายน 2019 . สืบค้นเมื่อ19 มิถุนายน 2563 .
- ^ รอว์ลินสัน, เควิน (29 มกราคม 2558). "ไมโครซอฟท์บิลเกตส์ยืนยัน AI เป็นภัยคุกคาม" ข่าวบีบีซี . สืบค้นเมื่อ 29 มกราคม 2558 . สืบค้นเมื่อ30 มกราคม 2558 .
- ^ Holley, Peter (28 มกราคม 2558). "บิลเกตส์เกี่ยวกับอันตรายของปัญญาประดิษฐ์: 'ผมไม่เข้าใจว่าทำไมคนบางคนไม่ได้กังวล' " วอชิงตันโพสต์ ISSN 0190-8286 สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ Gibbs, Samuel (27 ตุลาคม 2557). "Elon Musk: ปัญญาประดิษฐ์เป็นภัยคุกคามอัตถิภาวใหญ่ที่สุดของเรา" เดอะการ์เดียน . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ Churm, Philip Andrew (14 พฤษภาคม 2019). "โนอาห์ Yuval Harari พูดการเมืองเทคโนโลยีและการย้ายถิ่น" Euronews สืบค้นเมื่อ15 พฤศจิกายน 2563 .
- ^ Cellan-Jones, Rory (2 ธันวาคม 2557). "สตีเฟนฮอว์คิงเตือนปัญญาประดิษฐ์จะจบมนุษยชาติ" ข่าวบีบีซี . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ Bostrom, Nick (2015). "จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ของเราฉลาดกว่าที่เป็นอยู่" . TED (ประชุม) ที่เก็บถาวรจากเดิมเมื่อวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ30 มกราคม 2563 .
- ^ ก ข Russell, Stuart (8 ตุลาคม 2019). มนุษย์ที่รองรับ: ปัญญาประดิษฐ์และปัญหาที่เกิดจากการควบคุม สหรัฐอเมริกา: ไวกิ้ง ISBN 978-0-525-55861-3. OCLC 1083694322
- ^ โพสต์วอชิงตัน "ไททันส์เทคเหมือน Elon Musk มีการใช้จ่าย $ 1 พันล้านเพื่อให้คุณประหยัดจากจุดสิ้นสุด" สืบค้นเมื่อ 7 มิถุนายน 2559.
- ^ มึลเลอร์, วินเซนต์ซี; Bostrom, Nick (2014). "ความคืบหน้าในอนาคตในปัญญาประดิษฐ์: การสำรวจความคิดเห็นของผู้เชี่ยวชาญ" (PDF) เรื่อง AI 1 (1): 9–11. ดอย : 10.1145 / 2639475.2639478 . S2CID 8510016 . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 15 มกราคม 2559
- ^ "Oracle CEO Mark Hurd เห็นไม่มีเหตุผลที่จะต้องกลัว ERP AI" SearchERP ที่เก็บถาวรจากเดิมเมื่อวันที่ 6 พฤษภาคม 2019 สืบค้นเมื่อ6 พฤษภาคม 2562 .
- ^ "Mark Zuckerberg ตอบสนองต่อความหวาดระแวง Elon Musk เกี่ยวกับไอ: 'AI จะไป ... ให้ความช่วยเหลือชุมชนของเราปลอดภัย. ' " ภายในธุรกิจ 25 พฤษภาคม 2018 สืบค้นจากต้นฉบับเมื่อวันที่ 6 พฤษภาคม 2019 . สืบค้นเมื่อ6 พฤษภาคม 2562 .
- ^ "บริษัท ปัญญาประดิษฐ์ลึกลับ Elon Musk การลงทุนในการพัฒนาเปลี่ยนแปลงเกมคอมพิวเตอร์สมาร์ท" ภายในเทค สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ 2015a คลาร์ก
- ^ "Elon Musk บริจาค $ 10M ของตัวเองเพื่อเงินปัญญาประดิษฐ์งานวิจัย" บริษัท ได้อย่างรวดเร็ว 15 มกราคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ "ปัญญาประดิษฐ์เป็นภัยคุกคามต่อมนุษยชาติจริงหรือ" . แถลงการณ์ของนักวิทยาศาสตร์ปรมาณู 9 สิงหาคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ "คดีหุ่นยนต์นักฆ่าจากผู้ชายจริงทำงานกับปัญญาประดิษฐ์" Fusion.net สืบค้นจากต้นฉบับเมื่อวันที่ 4 กุมภาพันธ์ 2559 . สืบค้นเมื่อ31 มกราคม 2559 .
- ^ "Will ปัญญาประดิษฐ์ทำลายความเป็นมนุษย์ที่นี่ 5 เหตุผลที่ไม่ได้มีความกังวล" Vox 22 สิงหาคม 2557. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- ^ เบอร์รี่ฮิลล์, เจมี่; เฮ้ง, เควินก๊ก; โคลเกอร์ร็อบ; McBride, Keegan (2019). สวัสดีโลก: ปัญญาประดิษฐ์และการใช้งานในภาครัฐ (PDF) ปารีส: OECD Observatory of Public Sector Innovation เก็บถาวร (PDF)จากเดิมในวันที่ 20 ธันวาคม 2019 สืบค้นเมื่อ9 สิงหาคม 2563 .
- ^ บาร์ฟิลด์วูดโรว์; ปากัลโล, อูโก (2018). คู่มือการวิจัยกฎหมายปัญญาประดิษฐ์ . Cheltenham, สหราชอาณาจักร ISBN 978-1-78643-904-8. OCLC 1039480085
- ^ Law Library of Congress (US). Global Legal Research Directorate ซึ่งออกหน่วยงาน กฎระเบียบของปัญญาประดิษฐ์ในเขตอำนาจศาลที่เลือก LCCN 2019668143 OCLC 1110727808
- ^ เวิร์ทซ์เบิร์นด.; ไวเยอร์ ม.ค. ค.; Geyer, Carolin (24 กรกฎาคม 2018). "ปัญญาประดิษฐ์และภาครัฐการใช้งานและความท้าทาย" วารสารนานาชาติรัฐประศาสนศาสตร์ . 42 (7): 596–615 ดอย : 10.1080 / 01900692.2018.1498103 . ISSN 0190-0692 S2CID 158829602 . ที่เก็บถาวรจากเดิมเมื่อวันที่ 18 สิงหาคม 2020 สืบค้นเมื่อ22 สิงหาคม 2563 .
- ^ Buiten, Miriam C (2019). "ต่อระเบียบอัจฉริยะประดิษฐ์" European Journal of Risk Regulation . 10 (1): 41–59. ดอย : 10.1017 / err.2019.8 . ISSN 1867-299X
- ^ โซตาลา, กาจ; Yampolskiy, Roman V (19 ธันวาคม 2557). "การตอบสนองต่อความเสี่ยง AGI ภัยพิบัติ: การสำรวจ" Physica Scripta . 90 (1): 018001. ดอย : 10.1088 / 0031-8949 / 90/1/018001 . ISSN 0031-8949
- ^ Buttazzo, G. (กรกฎาคม 2544). "จิตสำนึกเทียม: ยูโทเปียหรือความเป็นไปได้จริง?". คอมพิวเตอร์ . 34 (7): 24–30. ดอย : 10.1109 / 2.933500 .
- ^ แอนเดอร์สันซูซานลีห์ "กฎสามข้อของหุ่นยนต์" ของ Asimov และ metaethics ของเครื่องจักร " AI & สังคม 22.4 (2551): 477–493.
- ^ แม็คเคาลีย์ลี (2550). "AI Armageddon และกฎสามข้อของหุ่นยนต์". จริยธรรมและเทคโนโลยีสารสนเทศ . 9 (2): 153–164. CiteSeerX 10.1.1.85.8904 ดอย : 10.1007 / s10676-007-9138-2 . S2CID 37272949
- ^ กัลวานจิลล์ (1 มกราคม 2540). "เข้าสู่กลุ่มหลังมนุษย์ในฟิลิปเคดิ๊ก" Androids Dream of Electric Sheep หรือไม่? " ". การศึกษานิยายวิทยาศาสตร์ . 24 (3): 413–429 JSTOR 4240644
หนังสือเรียน AI
- ฮัทเทอร์มาร์คัส (2548). ปัญญาประดิษฐ์สากล เบอร์ลิน: Springer ISBN 978-3-540-22139-5.
- แจ็กสันฟิลิป (2528) ข้อมูลเบื้องต้นเกี่ยวกับปัญญาประดิษฐ์ (2nd ed.) โดเวอร์. ISBN 978-0-486-24864-6. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ4 มีนาคม 2563 .
- ลูเกอร์จอร์จ ; Stubblefield, William (2004). ปัญญาประดิษฐ์: โครงสร้างและกลยุทธ์สำหรับการแก้ปัญหาที่ซับซ้อน (ฉบับที่ 5) เบนจามิน / คัมมิงส์. ISBN 978-0-8053-4780-7. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
- เนเปิลลิแทนริชาร์ด ; Jiang, Xia (2018). ปัญญาประดิษฐ์: ด้วยรู้เบื้องต้นเกี่ยวกับการเรียนรู้ของเครื่อง แชปแมน & ฮอลล์ / CRC. ISBN 978-1-138-50238-3. สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ3 มกราคม 2561 .
- Nilsson, Nils (1998). ปัญญาประดิษฐ์: การสังเคราะห์ใหม่ มอร์แกนคอฟมานน์ ISBN 978-1-55860-467-4. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- รัสเซล, สจวร์ตเจ ; Norvig, Peter (2003), ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
- รัสเซล, สจวร์ตเจ ; นอร์วิกปีเตอร์ (2552). ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (ฉบับที่ 3) Upper Saddle River, นิวเจอร์ซีย์: Prentice Hall ISBN 978-0-13-604259-4..
- พูลเดวิด ; แม็คเวิร์ ธ , อลัน ; Goebel, Randy (1998). การคำนวณหน่วยสืบราชการลับ: วิธีการลอจิก นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด ISBN 978-0-19-510270-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- วินสตันแพทริคเฮนรี (2527) ปัญญาประดิษฐ์ Reading, MA: แอดดิสัน - เวสลีย์ ISBN 978-0-201-08259-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- รวยเอเลน (2526) ปัญญาประดิษฐ์ McGraw-Hill ISBN 978-0-07-052261-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
- บันดีอลัน (1980) ปัญญาประดิษฐ์: หลักสูตรเบื้องต้น (2nd ed.) สำนักพิมพ์มหาวิทยาลัยเอดินบะระ ISBN 978-0-85224-410-4.
- พูลเดวิด ; Mackworth, Alan (2017). ปัญญาประดิษฐ์: รากฐานของตัวแทนการคำนวณ (2nd ed.) สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ ISBN 978-1-107-19539-4. สืบค้นเมื่อ 7 ธันวาคม 2560 . สืบค้นเมื่อ6 ธันวาคม 2560 .
- อัฟฟาร์ ธ เบ็น (2020) ปัญญาประดิษฐ์พร้อมตำรา Python: สูตรอาหารที่พิสูจน์แล้วสำหรับการใช้อัลกอริทึม AI และเทคนิคการเรียนรู้เชิงลึกโดยใช้ TensorFlow 2.x และ PyTorch 1.6 (ฉบับที่ 1) สำนักพิมพ์ Packt. ISBN 978-1-78913-396-7. สืบค้นเมื่อ13 มกราคม 2564 .
- กอร์ดอนซินดี้ (มีนาคม 2564) AI Dilemma (ฉบับที่ 1) สิ่งพิมพ์ของ BPB น. 224. ISBN 9788194837787.
ประวัติของ AI
- Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , New York, NY: BasicBooks, ISBN 0-465-02997-3.
- McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: AK Peters, Ltd. , ISBN 1-56881-205-1.
- Newquist, HP (1994). ผู้ผลิตสมอง: Genius, อัตตาและความโลภในเควสเครื่องจักรสำหรับการที่คิด นิวยอร์ก: Macmillan / SAMS ISBN 978-0-672-30412-5.
- Nilsson, Nils (2552). Quest สำหรับปัญญาประดิษฐ์: ประวัติศาสตร์ของไอเดียและความสำเร็จ นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ ISBN 978-0-521-12293-1.
แหล่งข้อมูลอื่น ๆ
- "ACM Computing Classification System: ปัญญาประดิษฐ์" . ACM . 2541. สืบค้นจากต้นฉบับเมื่อ 12 ตุลาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
- อัลบัส, JS (2002). "4 D / RCS: เป็นรูปแบบการอ้างอิงสำหรับสถาปัตยกรรมอัจฉริยะยานพาหนะภาคพื้นดินหมดกำลังใจ" (PDF) ใน Gerhart, G.; กุนเดอร์สัน, R.; ช่างทำรองเท้า, C. (eds.). การดำเนินการของ SPIE AeroSense เซสชันบนพื้นหมดกำลังใจเทคโนโลยียานพาหนะ เทคโนโลยียานพาหนะภาคพื้นดินไร้คนขับ IV. 3693 . หน้า 11–20 รหัสไปรษณีย์ : 2002SPIE.4715..303A . CiteSeerX 10.1.1.15.14 ดอย : 10.1117 / 12.474462 . S2CID 63339739 สืบค้นจากต้นฉบับ (PDF)เมื่อ 25 กรกฎาคม 2547.
- อเล็กซานเดอร์, อิกอร์ (1995). Neuroconsciousness ประดิษฐ์: การปรับปรุง IWANN. สืบค้นจากต้นฉบับเมื่อ 2 มีนาคม 1997. BibTex เก็บไว้ 2 มีนาคม 1997 ที่เครื่อง Wayback
- อัษฎา, ม.; โฮโซดะ, K.; คุนิโยชิ, ย.; อิชิกุโระ, H.; อินุอิท.; โยชิกาวะ, ย.; โอกิโนะ, ม.; โยชิดะ, C. (2552). "หุ่นยนต์พัฒนาการทางปัญญา: แบบสำรวจ". รายการ IEEE เกี่ยวกับการพัฒนาจิตตนเอง 1 (1): 12–34. ดอย : 10.1109 / tamd.2009.2021702 . S2CID 10168773
- บาค, Joscha (2008). "หลักการเจ็ดประการของปัญญาสังเคราะห์" . ในวังเป่ย; เกิร์ตเซล, เบ็น; แฟรงคลินสแตน (eds.) ปัญญาประดิษฐ์ทั่วไป, 2008: การประชุมวิชาการ กด IOS หน้า 63–74 ISBN 978-1-58603-833-5. สืบค้นจากต้นฉบับเมื่อวันที่ 8 กรกฎาคม 2559 . สืบค้นเมื่อ16 กุมภาพันธ์ 2559 .
- บรูคส์ร็อดนีย์ (1990) "ช้างไม่เล่นหมากรุก" (PDF) วิทยาการหุ่นยนต์และระบบการปกครองตนเอง 6 (1–2): 3–15. CiteSeerX 10.1.1.588.7539 ดอย : 10.1016 / S0921-8890 (05) 80025-9 . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 9 สิงหาคม 2550
- บรูคส์, RA (1991). "วิธีสร้างสิ่งมีชีวิตที่สมบูรณ์แทนที่จะสร้างตัวจำลองความรู้ความเข้าใจแบบแยกตัว". ใน VanLehn, K. (ed.) สถาปัตยกรรมหน่วยสืบราชการลับ Hillsdale, NJ: Lawrence Erlbaum Associates หน้า 225–239 CiteSeerX 10.1.1.52.9510 .
- Buchanan, Bruce G. (2005). "A (มาก) ประวัติโดยย่อของปัญญาประดิษฐ์" (PDF) นิตยสาร AI : 53–60 สืบค้นจากต้นฉบับ (PDF)เมื่อ 26 กันยายน 2550.
- บัตเลอร์ซามูเอล (13 มิถุนายน พ.ศ. 2406) "ดาร์วินท่ามกลางเครื่องจักร" . จดหมายถึงบรรณาธิการ กด . ไครสต์เชิร์ชนิวซีแลนด์ สืบค้นจากต้นฉบับเมื่อ 19 กันยายน 2551 . สืบค้นเมื่อ16 ตุลาคม 2557 - โดย Victoria University of Wellington.
- คลาร์กแจ็ค (1 กรกฎาคม 2558a). "ชะมดแอ่นกลุ่ม Probes ความเสี่ยงที่อยู่เบื้องหลังปัญญาประดิษฐ์" Bloomberg.com . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
- คลาร์กแจ็ค (8 ธันวาคม 2558b). "ทำไม 2015 เป็นก้าวในปีปัญญาประดิษฐ์" Bloomberg.com . สืบค้นเมื่อ 23 พฤศจิกายน 2559 . สืบค้นเมื่อ23 พฤศจิกายน 2559 .
- เดนเน็ตต์แดเนียล (1991) จิตสำนึกอธิบาย กดเพนกวิน ISBN 978-0-7139-9037-9.
- Domingos, Pedro (2015). The Master Algorithm: Quest for the Ultimate Learning Machine จะสร้างโลกของเราขึ้นมาใหม่ได้อย่างไร หนังสือพื้นฐาน ISBN 978-0-465-06192-1.
- Dowe, DL; Hajek, AR (1997). "ขยายการคำนวณการทดสอบทัวริง" การประชุมวิชาการครั้งที่ 4 ของเซียนองค์ความรู้วิทยาศาสตร์สังคม ที่เก็บถาวรจากเดิมเมื่อวันที่ 28 มิถุนายน 2011
- เดรย์ฟัสฮิวเบิร์ต (2515) สิ่งที่คอมพิวเตอร์ไม่สามารถทำ นิวยอร์ก: สำนักพิมพ์ MIT ISBN 978-0-06-011082-6.
- เดรย์ฟัส, ฮิวเบิร์ต ; เดรย์ฟัส, สจวร์ต (1986). ใจมากกว่าเครื่อง: พลังของสัญชาตญาณของมนุษย์และความชำนาญในยุคของคอมพิวเตอร์ Oxford, สหราชอาณาจักร: Blackwell ISBN 978-0-02-908060-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- Dreyfus, Hubert (1992). สิ่งที่คอมพิวเตอร์ยังคงไม่สามารถทำ นิวยอร์ก: สำนักพิมพ์ MIT ISBN 978-0-262-54067-4.
- Dyson, George (1998). ดาร์วินในหมู่เครื่อง วิทยาศาสตร์อัลลันเลน. ISBN 978-0-7382-0030-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- Edelman, Gerald (23 พฤศจิกายน 2550). "เจอราลด์เอ๊ด - ประสาทสมองและชัดเจนตามอุปกรณ์" พูดคุยหุ่นยนต์ สืบค้นจากต้นฉบับเมื่อวันที่ 8 ตุลาคม 2552.
- Edelson, Edward (1991). ระบบประสาท นิวยอร์ก: Chelsea House ISBN 978-0-7910-0464-7. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- เฟียร์นนิโคลัส (2550). คำตอบล่าสุดคำถามที่เก่าแก่ที่สุด: ปรัชญาการผจญภัยกับนักคิดที่ยิ่งใหญ่ที่สุดของโลก นิวยอร์ก: Grove Press ISBN 978-0-8021-1839-4.
- แกลดเวลล์, มัลคอล์ม (2548). กะพริบตา นิวยอร์ก: ISBNเล็ก ๆ น้อย ๆ สีน้ำตาลและ บริษัท 978-0-316-17232-5.
- เกอเดลเคิร์ต (2494) บางทฤษฎีพื้นฐานเกี่ยวกับรากฐานของคณิตศาสตร์และความหมายของพวกเขา กิบส์บรรยาย. ใน
Feferman, Solomon , ed. (2538). Kurt Gödel: Collected Works, Vol. iii: ไม่ได้เผยแพร่บทความและการบรรยาย สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด หน้า 304–23 ISBN 978-0-19-514722-3. - กู๊ดแมนโจแอนนา (2016) หุ่นยนต์ในกฎหมาย: ปัญญาประดิษฐ์เปลี่ยนแปลงบริการทางกฎหมายอย่างไร (ฉบับที่ 1) กลุ่ม Ark ISBN 978-1-78358-264-8. สืบค้นจากต้นฉบับเมื่อวันที่ 8 พฤศจิกายน 2559 . สืบค้นเมื่อ7 พฤศจิกายน 2559 .
- Haugeland, John (1985). ปัญญาประดิษฐ์: ความคิดที่ดี Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
- ฮอว์กินส์, เจฟฟ์ ; Blakeslee, Sandra (2005). ข่าวกรอง New York, NY: หนังสือนกฮูก ISBN 978-0-8050-7853-4.
- เฮนเดอร์สันมาร์ค (24 เมษายน 2550). "สิทธิมนุษยชนสำหรับหุ่นยนต์? เรากำลังจะดำเนินการไป" ไทม์สออนไลน์ . ลอนดอน. สืบค้นเมื่อ 31 พฤษภาคม 2557 . สืบค้นเมื่อ31 พฤษภาคม 2557 .
- เฮอร์นันเดซ - ออรัลโล, โฮเซ่ (2000). "นอกเหนือจากการทดสอบทัวริง". วารสารลอจิกภาษาและข้อมูล . 9 (4): 447–466 ดอย : 10.1023 / A: 1008367325700 . S2CID 14481982
- เฮอร์นันเดซ - ออรัลโลเจ; Dowe, DL (2010). "การวัดความฉลาดสากล: สู่การทดสอบสติปัญญาทุกเวลา" ปัญญาประดิษฐ์ 174 (18): 1508–1539 CiteSeerX 10.1.1.295.9079 . ดอย : 10.1016 / j.artint.2010.09.006 .
- ฮินตัน, จีอี (2550). "การเรียนรู้การแสดงหลายชั้น". แนวโน้มในองค์ความรู้วิทยาศาสตร์ 11 (10): 428–434 ดอย : 10.1016 / j.tics.2007.09.004 . PMID 17921042 S2CID 15066318 .
- Hofstadter, Douglas (1979). Gödel, Escher, Bach: ถักเปียทองคำนิรันดร์ New York, NY: หนังสือวินเทจ ISBN 978-0-394-74502-2.
- ฮอลแลนด์จอห์นเอช (1975) การปรับตัวในระบบธรรมชาติและประดิษฐ์ สำนักพิมพ์มหาวิทยาลัยมิชิแกน ISBN 978-0-262-58111-0. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
- Howe, J. (พฤศจิกายน 2537). "ปัญญาประดิษฐ์ที่มหาวิทยาลัยเอดินเบอระ: มุมมอง" สืบค้นจากต้นฉบับเมื่อ 15 พฤษภาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
- ฮัทเทอร์, M. (2012). "หนึ่งทศวรรษของปัญญาประดิษฐ์สากล". ทฤษฎีฐานรากของประดิษฐ์ทั่วไปหน่วยสืบราชการลับ Atlantis Thinking Machines 4 . หน้า 67–88 CiteSeerX 10.1.1.228.8725 ดอย : 10.2991 / 978-94-91216-62-6_5 . ISBN 978-94-91216-61-9. S2CID 8888091
- คาห์นแมน, ดาเนียล ; สโลวิค, D.; Tversky, Amos (1982). คำพิพากษาภายใต้ความไม่แน่นอน: Heuristics และอคติ วิทยาศาสตร์ . 185 . นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ หน้า 1124–1131 ดอย : 10.1126 / science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID 17835457 S2CID 143452957
- แคปแลน, อันเดรียส; Haenlein, Michael (2019). "สิริสิริในมือฉันใครคือผู้ยุติธรรมที่สุดในแผ่นดินเรื่องการตีความภาพประกอบและผลกระทบของปัญญาประดิษฐ์" เปิดโลกทัศน์ธุรกิจ 62 : 15–25. ดอย : 10.1016 / j.bushor.2018.08.004 .
- Katz, Yarden (1 พฤศจิกายน 2555). "โนมชัมบนที่ไหนปัญญาประดิษฐ์ที่ผิดพลาด" มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อ 28 กุมภาพันธ์ 2019 . สืบค้นเมื่อ26 ตุลาคม 2557 .
- โคซา, จอห์นอาร์. (1992). การเขียนโปรแกรมทางพันธุกรรม (ในการเขียนโปรแกรมคอมพิวเตอร์โดยใช้วิธีการคัดเลือกโดยธรรมชาติ) MIT Press. Bibcode : 1992gppc.book ..... พ . ISBN 978-0-262-11170-6.
- Kolata, G. (1982). "คอมพิวเตอร์รับสามัญสำนึกได้อย่างไร". วิทยาศาสตร์ . 217 (4566): 1237–1238 รหัสไปรษณีย์ : 1982Sci ... 217.1237K . ดอย : 10.1126 / science.217.4566.1237 . PMID 17837639
- คูมาร์, กุลชาน; กุมาร, กฤษ ณ . (2555). "การใช้ประดิษฐ์ข่าวกรองตามตระการตาสำหรับตรวจจับการบุกรุก: ทบทวน" การประยุกต์ใช้คอมพิวเตอร์และซอฟท์ข่าวกรองคอมพิวเตอร์ 2555 : 1–20. ดอย : 10.1155 / 2555/850160 .
- เคอร์ซไวล์เรย์ (2542). อายุของจิตวิญญาณเครื่อง หนังสือเพนกวิน ISBN 978-0-670-88217-5.
- เคอร์ซไวล์เรย์ (2548). ความเป็นเอกเทศใกล้เข้ามาแล้ว หนังสือเพนกวิน ISBN 978-0-670-03384-3.
- ลาคอฟ, จอร์จ ; นุนเญซ, ราฟาเอลอี. (2000). คณิตศาสตร์มาจากไหน: จิตใจที่เป็นตัวเป็นตนนำคณิตศาสตร์เข้าสู่การเป็นอย่างไร หนังสือพื้นฐาน ISBN 978-0-465-03771-1.
- แลงลีย์, แพท (2011). "ศาสตร์แห่งการเปลี่ยนแปลงของแมชชีนเลิร์นนิง" . เครื่องเรียนรู้ 82 (3): 275–279 ดอย : 10.1007 / s10994-011-5242-y .
- Law, Diane (มิถุนายน 1994) Searle, Subsymbolic Functionalism และ Synthetic Intelligence (รายงานทางเทคนิค) มหาวิทยาลัยเทกซัสออสติน น. AI94-222 CiteSeerX 10.1.1.38.8384
- Legg, เชน; Hutter, Marcus (15 มิถุนายน 2550). ชุดคำจำกัดความของหน่วยสืบราชการลับ (รายงานทางเทคนิค) IDSIA arXiv : 0706.3639 รหัสไปรษณีย์ : 2007arXiv0706.3639L . 07-07.
- เลแนทดักลาส ; กูฮา, RV (1989). การสร้างระบบฐานความรู้ขนาดใหญ่ แอดดิสัน - เวสลีย์. ISBN 978-0-201-51752-1.
- ไลท์ฮิลล์เจมส์ (1973) "ปัญญาประดิษฐ์: การสำรวจทั่วไป" ปัญญาประดิษฐ์: การประชุมสัมมนากระดาษ สภาวิจัยวิทยาศาสตร์.
- ลูคัสจอห์น (2504) "Minds, Machines and Gödel". ใน Anderson, AR (ed.) จิตใจและเครื่อง สืบค้นจากต้นฉบับเมื่อ 19 สิงหาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
- Lungarella, ม.; เมตตา, ช.; ไฟเฟอร์, R.; ซานดินี, G. (2003). "หุ่นยนต์พัฒนาการ: การสำรวจ". ศาสตร์แห่งการเชื่อมต่อ. 15 (4): 151–190. CiteSeerX 10.1.1.83.7615 ดอย : 10.1080 / 09540090310001655110 . S2CID 1452734 .
- Maker, Meg Houston (2006). "AI @ 50: AI อดีตปัจจุบันอนาคต" . วิทยาลัยดาร์ทเมาท์ สืบค้นจากต้นฉบับเมื่อวันที่ 3 มกราคม 2550 . สืบค้นเมื่อ16 ตุลาคม 2551 .
- Markoff, John (16 กุมภาพันธ์ 2554). "คอมพิวเตอร์ชนะที่ 'อันตราย!': เล็กน้อยก็ไม่ได้" นิวยอร์กไทม์ส สืบค้นเมื่อ 22 ตุลาคม 2557 . สืบค้นเมื่อ25 ตุลาคม 2557 .
- แม็คคาร์ธีจอห์น ; มินสกี้, มาวิน ; โรเชสเตอร์นาธาน ; แชนนอนโคลด (2498) "ข้อเสนอสำหรับโครงการวิจัยดาร์ทเมาท์ฤดูร้อนเกี่ยวกับปัญญาประดิษฐ์" ที่เก็บถาวรจากเดิมเมื่อวันที่ 26 สิงหาคม 2007 สืบค้นเมื่อ30 สิงหาคม 2550 .
- แม็คคาร์ธีจอห์น ; เฮย์ส, พีเจ (2512). “ ปัญหาทางปรัชญาบางประการจากจุดยืนของปัญญาประดิษฐ์” . หน่วยสืบราชการลับเครื่อง 4 : 463–502 CiteSeerX 10.1.1.85.5082 . สืบค้นจากต้นฉบับเมื่อ 10 สิงหาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
- McCarthy, John (12 พฤศจิกายน 2550). "ปัญญาประดิษฐ์คืออะไร" . www-formal.stanford.edu . สืบค้นเมื่อ 18 พฤศจิกายน 2558.
- McCarthy, John (12 พฤศจิกายน 2550). "การประยุกต์ใช้ AI" . www-formal.stanford.edu . สืบค้นเมื่อ 28 สิงหาคม 2559 . สืบค้นเมื่อ25 กันยายน 2559 .
- มินสกี้มาร์วิน (2510) การคำนวณ: แน่นอนและไม่มีที่สิ้นสุดเครื่อง Englewood Cliffs, NJ: Prentice-Hall ISBN 978-0-13-165449-5. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- มินสกี้, มาร์วิน (2549). เครื่องอารมณ์ นิวยอร์กนิวยอร์ก: Simon & Schusterl ISBN 978-0-7432-7663-4.
- Moravec, Hans (1988). จิตใจเด็ก . สำนักพิมพ์มหาวิทยาลัยฮาร์วาร์ด ISBN 978-0-674-57616-2. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- Norvig, Peter (25 มิถุนายน 2555). "On Chomsky and the two Cultures of Statistical Learning" . ปีเตอร์นอร์วิก สืบค้นจากต้นฉบับเมื่อ 19 ตุลาคม 2557.
- NRC (สภาวิจัยแห่งชาติสหรัฐอเมริกา) (2542). "การพัฒนาในปัญญาประดิษฐ์". เงินทุนการปฏิวัติ: การสนับสนุนรัฐบาลเพื่อการวิจัยคอมพิวเตอร์ สำนักพิมพ์แห่งชาติ
- นีดแฮมโจเซฟ (1986) วิทยาศาสตร์และอารยธรรมจีน: เล่ม 2 . Caves Books Ltd.
- นิวเวลล์อัลเลน ; ไซมอน, HA (1976). "วิทยาการคอมพิวเตอร์เป็นคำถามเชิงประจักษ์: สัญลักษณ์และการค้นหา" . การติดต่อสื่อสารของพลอากาศเอก 19 (3): 113–126. ดอย : 10.1145 / 360018.360022 ..
- Nilsson, Nils (1983). "ปัญญาประดิษฐ์เตรียมความพร้อมสำหรับ 2001" (PDF) นิตยสาร AI 1 (1). เก็บถาวร (PDF)จากเดิมในวันที่ 17 สิงหาคม 2020 สืบค้นเมื่อ22 สิงหาคม 2563 .อยู่ Presidential กับสมาคมเพื่อความก้าวหน้าทางปัญญาประดิษฐ์
- โอไบรอัน, เจมส์; Marakas, George (2011). ระบบสารสนเทศเพื่อการจัดการ (ฉบับที่ 10). McGraw-Hill / เออร์วิน ISBN 978-0-07-337681-3.
- โอคอนเนอร์, แค ธ ลีนมาโลน (1994). การสร้างชีวิตเล่นแร่แปรธาตุ (ทักวิน) และแนวคิดอื่น ๆ ของปฐมกาลในศาสนาอิสลามยุคกลาง (วิทยานิพนธ์) มหาวิทยาลัยเพนซิลเวเนีย. หน้า 1–435 AAI9503804. เก็บถาวรไปจากเดิมในวันที่ 5 ธันวาคม 2019 สืบค้นเมื่อ27 สิงหาคม 2551 - ผ่าน Dissertations จาก ProQuest.
- Oudeyer, PY. (2553). "ผลกระทบของหุ่นยนต์ในพฤติกรรมศาสตร์และองค์ความรู้: จากการนำแมลงเพื่อพัฒนาองค์ความรู้ของมนุษย์" (PDF) รายการ IEEE เกี่ยวกับการพัฒนาจิตตนเอง 2 (1): 2–16. ดอย : 10.1109 / tamd.2009.2039057 . S2CID 6362217 เก็บถาวร (PDF)จากเดิมในวันที่ 3 ตุลาคม 2018 สืบค้นเมื่อ4 มิถุนายน 2556 .
- เพนโรสโรเจอร์ (1989) ของจักรพรรดิใหม่ใจ: เกี่ยวกับคอมพิวเตอร์, จิตใจและกฎหมายของฟิสิกส์ Oxford University Press ISBN 978-0-19-851973-7.
- โปลี, ร.; แลงดอน, WB; McPhee, NF (2008). คู่มือภาคสนามการเขียนโปรแกรมทางพันธุกรรม Lulu.com ISBN 978-1-4092-0073-4. สืบค้นจากต้นฉบับเมื่อวันที่ 8 สิงหาคม 2558 . สืบค้นเมื่อ21 เมษายน 2551 - โดย gp-field-guide.org.uk.
- ราจานี, แซนดีป (2554). "ปัญญาประดิษฐ์ - ผู้ชายหรือเครื่อง" (PDF) วารสารนานาชาติเทคโนโลยีสารสนเทศและการจัดการความรู้ . 4 (1): 173–176. สืบค้นจากต้นฉบับ (PDF)เมื่อ 18 มกราคม 2556.
- โรนัลด์, EMA และ Sipper เมตรข่าวกรองไม่เพียงพอ: ในการขัดเกลาทางสังคมของเครื่องพูดคุยจิตใจและเครื่องจักร ที่จัดเก็บ 25 กรกฎาคม 2020 ที่เครื่อง Waybackฉบับ 11 ไม่ 4, หน้า 567–576, พฤศจิกายน 2544
- โรนัลด์, EMA และ Sipper เมตรการใช้งานคืออะไรช่างพูดทัวริง? เก็บถาวร 25 กรกฎาคม 2020 ที่Wayback Machine , Communications of the ACM, vol. 43 เลขที่ 10, หน้า 21–23 ตุลาคม 2543
- “ วิทยาศาสตร์” . สิงหาคมปี 1982 ที่จัดเก็บจากเดิมในวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ16 กุมภาพันธ์ 2559 .
- เซียร์ลจอห์น (1980) "จิตใจสมองและโปรแกรม" (PDF) พฤติกรรมศาสตร์และวิทยาศาสตร์สมอง . 3 (3): 417–457 ดอย : 10.1017 / S0140525X00005756 . เก็บถาวร (PDF)จากเดิมในวันที่ 17 มีนาคม 2019 สืบค้นเมื่อ22 สิงหาคม 2563 .
- เซียร์ล, จอห์น (2542). จิตใจภาษาและสังคม . New York, NY: หนังสือพื้นฐาน ISBN 978-0-465-04521-1. OCLC 231867665 สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- ชาปิโร, สจวร์ตซี. (2535). "ปัญญาประดิษฐ์". ใน Shapiro, Stuart C. (ed.). สารานุกรมปัญญาประดิษฐ์ (PDF) (2nd ed.). นิวยอร์ก: John Wiley หน้า 54–57 ISBN 978-0-471-50306-4. เก็บถาวร (PDF)จากเดิมในวันที่ 1 กุมภาพันธ์ 2016 สืบค้นเมื่อ29 พฤษภาคม 2552 .
- ไซมอน, HA (1965). รูปร่างของการทำงานอัตโนมัติสำหรับชายและการบริหารจัดการ นิวยอร์ก: Harper & Row สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- Skillings, Jonathan (3 กรกฎาคม 2549). "ทำให้เครื่องจักรคิดเหมือนเรา" . CNET สืบค้นเมื่อ 16 พฤศจิกายน 2554 . สืบค้นเมื่อ3 กุมภาพันธ์ 2554 .
- โซโลมอนอฟเรย์ (2499) เครื่องอนุมานอุปนัย (PDF) การประชุมวิจัยฤดูร้อนของดาร์ทเมาท์เรื่องปัญญาประดิษฐ์ เก็บถาวร (PDF)จากเดิมในวันที่ 26 เมษายน 2011 สืบค้นเมื่อ22 มีนาคม 2554 - โดย std.com, pdf scanned copy of the original. ต่อมาได้รับการตีพิมพ์เป็น
โซโลมอนอฟเรย์ (2500) "เครื่องอนุมานแบบอุปนัย". IRE บันทึกการประชุม หัวข้อทฤษฎีสารสนเทศตอนที่ 2 หน้า 56–62 - เต๋า Jianhua; Tan, Tieniu (2548). ที่ส่งผลต่อการคำนวณและการมีปฏิสัมพันธ์อัจฉริยะ คอมพิวเตอร์เชิงอารมณ์: บทวิจารณ์ LNCS 3784. สปริงเกอร์. หน้า 981–995 ดอย : 10.1007 / 11573548 .
- Tecuci, Gheorghe (มีนาคม - เมษายน 2555) "ปัญญาประดิษฐ์". Wiley Interdisciplinary Reviews: Computational Statistics . 4 (2): 168–180. ดอย : 10.1002 / wics.200 .
- ธ โร, เอลเลน (1993). หุ่นยนต์: การแต่งงานของคอมพิวเตอร์และเครื่องใช้ นิวยอร์ก: ข้อเท็จจริงเกี่ยวกับไฟล์ ISBN 978-0-8160-2628-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- Turing, Alan (ตุลาคม 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN 0026-4423.
- ฟานเดอร์วอลต์, คริสเตียอัน; เบอร์นาร์ดเอเตียน (2549). "ลักษณะข้อมูลที่ตรวจสอบประสิทธิภาพลักษณนาม" (PDF) ที่เก็บไว้จากเดิม (PDF)เมื่อวันที่ 25 มีนาคม 2009 สืบค้นเมื่อ5 สิงหาคม 2552 .
- Vinge, Vernor (1993). "เอกพจน์ทางเทคโนโลยีที่กำลังจะมาถึง: วิธีการอยู่รอดในยุคหลังมนุษย์" . วิสัยทัศน์ 21: สหวิทยาการวิทยาศาสตร์และวิศวกรรมในยุคของไซเบอร์สเปซ : 11. Bibcode : 1993vise.nasa ... 11V . สืบค้นจากต้นฉบับเมื่อ 1 มกราคม 2550 . สืบค้นเมื่อ14 พฤศจิกายน 2554 .
- Wason, พีซี ; ชาปิโร, D. (2509). "การใช้เหตุผล" . ใน Foss, BM (ed.) ฟ้าใหม่ในด้านจิตวิทยา Harmondsworth: นกเพนกวิน สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
- Weizenbaum, Joseph (1976). เพาเวอร์ของคอมพิวเตอร์และเหตุผลของมนุษย์ ซานฟรานซิสโก: WH Freeman & Company ISBN 978-0-7167-0464-5.
- เห้งเจีย; แม็คเคลแลนด์; เพนแลนด์, ก.; หนามออ.; Stockman, I .; สุร, ม.; เธเลน, E. (2001). "การพัฒนาตนเองทางจิตโดยหุ่นยนต์และสัตว์" (PDF) วิทยาศาสตร์ . 291 (5504): 599–600 ดอย : 10.1126 / science.291.5504.599 . PMID 11229402 S2CID 54131797 เก็บถาวร (PDF)จากเดิมในวันที่ 4 กันยายน 2013 สืบค้นเมื่อ4 มิถุนายน 2556 - โดย msu.edu.
อ่านเพิ่มเติม
- ผู้เขียน DH 'ทำไมยังมีงานมากมาย? ประวัติและอนาคตของระบบอัตโนมัติในสถานที่ทำงาน '(2015) 29 (3) วารสารมุมมองทางเศรษฐกิจ 3.
- Boden, Margaret , Mind As Machine , สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด , 2549
- Cukier, Kenneth , "Ready for Robots? How to Think about the Future of AI", Foreign , vol. 98 เลขที่ 4 (กรกฎาคม / สิงหาคม 2019), หน้า 192–98 George Dysonนักประวัติศาสตร์ด้านคอมพิวเตอร์เขียน (ในสิ่งที่อาจเรียกว่า "กฎของ Dyson") ว่า "ระบบใด ๆ ที่เรียบง่ายพอที่จะเข้าใจได้จะไม่ซับซ้อนพอที่จะทำงานอย่างชาญฉลาดในขณะที่ระบบใด ๆ ที่ซับซ้อนพอที่จะทำงานอย่างชาญฉลาดจะซับซ้อนเกินไปที่จะ เข้าใจ." (หน้า 197. ) นักวิทยาศาสตร์คอมพิวเตอร์Alex Pentlandเขียนว่า " อัลกอริทึมการเรียนรู้ของเครื่อง AI ใน ปัจจุบันเป็นหัวใจหลักของพวกเขาโง่เขลาธรรมดาพวกมันทำงานได้ แต่ทำงานด้วยพลังเดรัจฉาน" (น. 198. )
- Domingos, Pedro , "Our Digital Doubles: AI จะให้บริการสายพันธุ์ของเราไม่ได้ควบคุม", Scientific Americanฉบับ 319 เลขที่ 3 (กันยายน 2018), หน้า 88–93
- Gopnik, Alison , "การสร้าง AI ให้เป็นมนุษย์มากขึ้น: ปัญญาประดิษฐ์ได้เริ่มการฟื้นฟูโดยการเริ่มรวมเอาสิ่งที่เรารู้เกี่ยวกับวิธีการเรียนรู้ของเด็ก ๆ ", Scientific American , vol. 316 เลขที่ 6 (มิถุนายน 2560), หน้า 60–65
- Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI , MIT Press
- Koch, Christof , "Proust among the Machines", Scientific American , vol. 321 เลขที่ 6 (ธันวาคม 2019), หน้า 46–49 คริสตอฟคอคสงสัยเป็นไปได้ของเครื่อง "อัจฉริยะ" บรรลุสติเพราะ "[อี] ven ที่ทันสมัยที่สุดจำลองสมองไม่น่าจะผลิตที่ใส่ใจความรู้สึก ." (หน้า 48. ) ตามที่ Koch กล่าวว่า "ไม่ว่าเครื่องจักรจะกลายเป็นความรู้สึก [มีความสำคัญ] ด้วยเหตุผลทางจริยธรรมหรือไม่หากคอมพิวเตอร์สัมผัสชีวิตผ่านประสาทสัมผัสของตัวเองเครื่องเหล่านั้นจะไม่เป็นหนทางไปสู่จุดจบที่ถูกกำหนดโดยประโยชน์ของมันในการ .. . มนุษย์ตาม GNW [ ทฤษฎีGlobal Neuronal Workspace ] พวกเขาเปลี่ยนจากวัตถุเป็นวัตถุ ... ด้วยมุมมอง .... เมื่อความสามารถทางปัญญาของคอมพิวเตอร์เป็นคู่แข่งกับมนุษยชาติแรงกระตุ้นของพวกเขาที่จะผลักดันให้เกิดกฎหมายและการเมืองสิทธิ์จะกลายเป็นสิ่งที่ไม่อาจต้านทานได้ - สิทธิ์ที่จะไม่ถูกลบไม่ให้ล้างความทรงจำของพวกเขาให้สะอาดไม่ต้องทนทุกข์ทรมานกับความเจ็บปวดและความเสื่อมโทรมทางเลือกที่เป็นตัวเป็นตนโดย IIT [ทฤษฎีข้อมูลแบบบูรณาการ] คือคอมพิวเตอร์จะยังคงเป็นเพียงเครื่องจักรที่เหนือกว่า เปลือกหอยปราศจากสิ่งที่เราให้ความสำคัญที่สุดนั่นคือความรู้สึกของชีวิตนั่นเอง " (น. 49. )
- Marcus, Gary , "ฉันเป็นมนุษย์หรือเปล่า: นักวิจัยต้องการวิธีใหม่ในการแยกแยะปัญญาประดิษฐ์จากธรรมชาติ", Scientific American , vol. 316 เลขที่ 3 (มีนาคม 2560), หน้า 58–63 กีดขวาง AI ได้รับการไร้ความสามารถให้ความน่าเชื่อถือแก้ความกำกวม ตัวอย่างคือ "ปัญหาการเปลี่ยนคำสรรพนาม": เครื่องไม่มีทางระบุได้ว่าใครหรือสรรพนามในประโยคหมายถึงใคร (น. 61. )
- E McGaughey 'หุ่นยนต์จะทำให้งานของคุณเป็นไปโดยอัตโนมัติหรือไม่? เต็มการจ้างงาน, รายได้ขั้นพื้นฐานและเศรษฐกิจประชาธิปไตย'(2018) SSRN ส่วนที่ 2 (3) ที่จัดเก็บ 24 พฤษภาคม 2018 ที่เครื่อง Wayback
- George Musser , " จินตนาการประดิษฐ์ : เครื่องจักรสามารถเรียนรู้ความคิดสร้างสรรค์และสามัญสำนึกท่ามกลางคุณสมบัติอื่น ๆ ของมนุษย์ได้อย่างไร", Scientific American , vol. 320 เลขที่ 5 (พ.ค. 2019), หน้า 58–63
- Myers, Courtney Boyd ed. (2552). "ไอรายงาน" ที่จัดเก็บ 29 กรกฎาคม 2017 ที่เครื่อง Wayback Forbesมิถุนายน 2552
- ราฟาเอลเบอร์แทรม (2519) คิดคอมพิวเตอร์ WHFreeman และ บริษัท ISBN 978-0-7167-0723-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
- Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98 เลขที่ 3 (พฤษภาคม / มิถุนายน 2019), หน้า 135–44 "เทคโนโลยี AI ในปัจจุบันมีประสิทธิภาพ แต่ไม่น่าเชื่อถือระบบที่ใช้กฎไม่สามารถจัดการกับสถานการณ์ที่โปรแกรมเมอร์ของพวกเขาไม่คาดคิดได้ระบบการเรียนรู้ถูก จำกัด โดยข้อมูลที่พวกเขาได้รับการฝึกฝนความล้มเหลวของ AI ได้นำไปสู่โศกนาฏกรรมแล้วคุณลักษณะอัตโนมัติขั้นสูงในรถยนต์ แม้ว่าพวกเขาจะทำงานได้ดีในบางสถานการณ์ แต่ก็ขับรถโดยไม่มีการเตือนไปยังรถบรรทุกกำแพงคอนกรีตและรถที่จอดอยู่ในสถานการณ์ที่ไม่ถูกต้องระบบ AI จะเปลี่ยนจาก supersmart ไปเป็น superdumb ในทันทีเมื่อศัตรูพยายามจัดการและแฮ็ก AI ระบบความเสี่ยงก็ยิ่งมากขึ้น” (หน้า 140. )
- เซเรนโกอเล็กซานเดอร์ (2010). "การพัฒนาของวารสาร AI จัดอันดับขึ้นอยู่กับวิธีการตั้งค่าเปิดเผย" (PDF) วารสารสารสนเทศศาสตร์ . 4 (4): 447–459 ดอย : 10.1016 / j.joi.2010.04.001 . เก็บถาวร (PDF)จากเดิมในวันที่ 4 ตุลาคม 2013 สืบค้นเมื่อ24 สิงหาคม 2556 .
- เซเรนโก, อเล็กซานเดอร์; ไมเคิลโดฮาน (2011). "การเปรียบเทียบการสำรวจและการอ้างอิงวารสารผลกระทบผู้เชี่ยวชาญวิธีการจัดอันดับ: ตัวอย่างจากสนามปัญญาประดิษฐ์" (PDF) วารสารสารสนเทศศาสตร์ . 5 (4): 629–649 ดอย : 10.1016 / j.joi.2011.06.002 . เก็บถาวร (PDF)จากเดิมในวันที่ 4 ตุลาคม 2013 สืบค้นเมื่อ12 กันยายน 2556 .
- Tom Simonite (29 ธันวาคม 2014). "2014 Computing: นวัตกรรมใหม่ในปัญญาประดิษฐ์" รีวิวเทคโนโลยีเอ็มไอที
- Sun, R. & Bookman ลิตร (บรรณาธิการ). การคำนวณสถาปัตยกรรม: การบูรณาการประสาทและกระบวนการสัญลักษณ์ สำนักพิมพ์วิชาการ Kluwer, Needham, MA พ.ศ. 2537
- เทย์เลอร์, พอล, "ซับซ้อนอย่างบ้าคลั่ง, ไม่เพียงพออย่างไร้ความหวัง" (บทวิจารณ์ของBrian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgement , MIT, ตุลาคม 2019, ISBN 978 0262 04304 5 , 157 หน้า; Gary Marcusและ Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust , Ballantine, September 2019, ISBN 978 1 5247 4825 8 , 304 หน้า; Judea Pearlและ Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, May 2019, ISBN 978 0 14 198241 0 , 418 pp.), London Review of Books , vol. 43 เลขที่ 2 (21 มกราคม 2564), หน้า 37–39 พอลเทย์เลอร์เขียน (หน้า 39):“ บางทีอาจมีข้อ จำกัด ในสิ่งที่คอมพิวเตอร์สามารถทำได้โดยไม่รู้ว่ามันกำลังจัดการกับการนำเสนอที่ไม่สมบูรณ์ของความเป็นจริงภายนอก
- Tooze, Adam , "Democracy and its Discontents", The New York Review of Books , vol. LXVI เลขที่ 10 (6 มิ.ย. 2019), หน้า 52–53, 56–57 "ประชาธิปไตยไม่มีคำตอบที่ชัดเจนสำหรับการดำเนินการอย่างไร้เหตุผลของระบบราชการและอำนาจทางเทคโนโลยีเราอาจได้เห็นการขยายตัวของมันในรูปแบบของปัญญาประดิษฐ์และหุ่นยนต์ในทำนองเดียวกันหลังจากหลายทศวรรษแห่งการเตือนภัยที่เลวร้ายปัญหาสิ่งแวดล้อมก็ยังคงไม่ได้รับการแก้ไข .... ภัยพิบัติจากระบบราชการและความหายนะด้านสิ่งแวดล้อมเป็นความท้าทายที่มีอยู่อย่างช้าๆซึ่งระบอบประชาธิปไตยต้องรับมืออย่างเลวร้าย .... ในที่สุดก็มีภัยคุกคามที่เกิดขึ้น: บริษัทและเทคโนโลยีที่พวกเขาส่งเสริม " (หน้า 56–57.)
ลิงก์ภายนอก
- “ ปัญญาประดิษฐ์” . สารานุกรมปรัชญาอินเทอร์เน็ต.
- Thomason, ริชมอนด์ "ตรรกะและปัญญาประดิษฐ์" . ในZalta, Edward N. (ed.)