ปัญญาประดิษฐ์

ปัญญาประดิษฐ์ ( AI ) เป็นความฉลาดที่แสดงโดยเครื่องจักรซึ่งแตกต่างจากความฉลาดตามธรรมชาติที่ มนุษย์และสัตว์แสดงซึ่งเกี่ยวข้องกับสติและอารมณ์ ความแตกต่างระหว่างประเภทเดิมและประเภทหลังมักถูกเปิดเผยโดยใช้ตัวย่อที่เลือก AI ที่ 'แข็งแกร่ง' มักถูกระบุว่าเป็นปัญญาประดิษฐ์ทั่วไป (AGI) ในขณะที่ความพยายามที่จะเลียนแบบปัญญา 'ธรรมชาติ' ถูกเรียกว่าปัญญาประดิษฐ์ทางชีวภาพ (ABI) ตำรา AI ชั้นนำกำหนดสาขานี้ว่าเป็นการศึกษา " ตัวแทนอัจฉริยะ": อุปกรณ์ใด ๆ ที่รับรู้สภาพแวดล้อมและดำเนินการเพื่อเพิ่มโอกาสในการบรรลุเป้าหมายให้สำเร็จ[3] ในภาษาเรียกขานคำว่า" ปัญญาประดิษฐ์ "มักใช้เพื่ออธิบายเครื่องจักรที่เลียนแบบฟังก์ชัน" ความรู้ความเข้าใจ "ที่มนุษย์เชื่อมโยงกับมนุษย์ จิตใจเช่น "การเรียนรู้" และ "การแก้ปัญหา" [4]

ในฐานะที่เป็นเครื่องกลายเป็นความสามารถมากขึ้นงานถือว่าเป็นที่จะต้องใช้ "ปัญญา" มักจะถูกลบออกจากความหมายของไอปรากฏการณ์ที่เรียกว่าผล AI [5]คำพูดหนึ่งในทฤษฎีบทของ Tesler กล่าวว่า "AI คืออะไรก็ตามที่ยังไม่ได้ทำ" [6]ตัวอย่างเช่นการรู้จำอักขระด้วยแสงมักถูกแยกออกจากสิ่งที่ถือว่าเป็น AI [7]กลายเป็นเทคโนโลยีประจำ [8]โมเดิร์นความสามารถเครื่องจัดโดยทั่วไปเป็น AI รวมถึงการประสบความสำเร็จในการพูดของมนุษย์เข้าใจ , [9]การแข่งขันในระดับที่สูงที่สุดในเกมเชิงกลยุทธ์ระบบ (เช่นหมากรุกและGo ) [10]และยังไม่สมบูรณ์ข้อมูลเกมเช่นโป๊กเกอร์ , [11 ] รถยนต์ตนเองขับรถอัจฉริยะเส้นทางในเครือข่ายการจัดส่งเนื้อหาและการจำลองทางทหาร [12]

ปัญญาประดิษฐ์ก่อตั้งขึ้นในฐานะสาขาวิชาการศึกษาในปี พ.ศ. 2498 และในช่วงหลายปีที่ผ่านมามีการมองโลกในแง่ดีหลายระลอก[13] [14]ตามมาด้วยความผิดหวังและการสูญเสียเงินทุน (เรียกว่า " ฤดูหนาว AI ") [15] [16]ตามด้วยแนวทางใหม่ความสำเร็จและการระดมทุนใหม่ [14] [17]หลังจากAlphaGoประสบความสำเร็จในการเอาชนะผู้เล่น Go มืออาชีพในปี 2015 ปัญญาประดิษฐ์ก็ดึงดูดความสนใจไปทั่วโลกอีกครั้ง [18]ในประวัติศาสตร์ส่วนใหญ่การวิจัย AI ถูกแบ่งออกเป็นสาขาย่อยที่มักจะไม่สามารถสื่อสารกันได้ [19]เขตข้อมูลย่อยเหล่านี้ขึ้นอยู่กับการพิจารณาทางเทคนิคเช่นเป้าหมายเฉพาะ (เช่น " หุ่นยนต์ " หรือ " การเรียนรู้ของเครื่อง ") [20]การใช้เครื่องมือเฉพาะ (" ตรรกะ " หรือโครงข่ายประสาทเทียม ) หรือปรัชญาเชิงลึก ความแตกต่าง [23] [24] [25]สาขาย่อยยังขึ้นอยู่กับปัจจัยทางสังคม (สถาบันเฉพาะหรือผลงานของนักวิจัยโดยเฉพาะ) [19]

ปัญหาเดิม (หรือเป้าหมาย) ของการวิจัย AI ประกอบด้วยเหตุผล , แทนความรู้ , การวางแผน , การเรียนรู้ , การประมวลผลภาษาธรรมชาติ , การรับรู้และความสามารถในการย้ายและจัดการวัตถุ [20] AGI เป็นหนึ่งในเป้าหมายระยะยาวของสนาม [26]แนวทางรวมถึงวิธีการทางสถิติ , ปัญญาประดิษฐ์และแบบดั้งเดิมสัญลักษณ์ AI มีการใช้เครื่องมือหลายอย่างใน AI รวมถึงเวอร์ชันของการค้นหาและการเพิ่มประสิทธิภาพทางคณิตศาสตร์เครือข่ายประสาทเทียมและวิธีการที่ใช้สถิติความน่าจะเป็นและเศรษฐศาสตร์ สนาม AI เสมอเมื่อวิทยาการคอมพิวเตอร์ , วิศวกรรมข้อมูล , คณิตศาสตร์ , จิตวิทยา , ภาษาศาสตร์ , ปรัชญาและสาขาอื่น ๆ อีกมากมาย

สนามแห่งนี้ก่อตั้งขึ้นจากสมมติฐานที่ว่าความฉลาดของมนุษย์ "สามารถอธิบายได้อย่างแม่นยำมากจนสามารถสร้างเครื่องจักรเพื่อจำลองได้" [27]สิ่งนี้ทำให้เกิดข้อโต้แย้งทางปรัชญาเกี่ยวกับจิตใจและจริยธรรมในการสร้างสิ่งมีชีวิตเทียมที่มีสติปัญญาเหมือนมนุษย์ ปัญหาเหล่านี้ได้รับการสำรวจโดยตำนาน , นิยายและปรัชญาตั้งแต่สมัยโบราณ [32]บางคนยังคิดว่า AI เป็นอันตรายต่อมนุษยชาติหากมันดำเนินไปอย่างไม่หยุดยั้ง [33] [34]คนอื่น ๆ เชื่อว่า AI ซึ่งแตกต่างจากการปฏิวัติทางเทคโนโลยีก่อนหน้านี้จะสร้างความเสี่ยงต่อการว่างงานจำนวนมาก [35]

ในศตวรรษที่ยี่สิบเอ็ดเทคนิค AI มีประสบการณ์การฟื้นตัวต่อไปนี้ความก้าวหน้าพร้อมกันในไฟของคอมพิวเตอร์จำนวนมากข้อมูลและความเข้าใจเชิงทฤษฎี; และเทคนิค AI ได้กลายเป็นส่วนสำคัญของอุตสาหกรรมเทคโนโลยีช่วยในการแก้ปัญหาความท้าทายมากมายในวิทยาการคอมพิวเตอร์, วิศวกรรมซอฟต์แวร์และการดำเนินงานวิจัย [36] [17]

เงิน didrachmaจาก เกาะครีตภาพวาด ลอสเป็นตำนานโบราณ หุ่นยนต์ด้วยปัญญาประดิษฐ์

ความคิดความสามารถในสิ่งมีชีวิตเทียมปรากฏเป็นนิทานอุปกรณ์ในสมัยโบราณ[37]และได้รับร่วมกันในนิยายในขณะที่แมรีเชลลีย์ 's Frankensteinหรือกาเรลชาเปก ' s RUR [38]ตัวละครเหล่านี้และชะตากรรมของพวกเขายกหลายปัญหาเดียวกันในขณะนี้ กล่าวถึงในจริยธรรมของปัญญาประดิษฐ์ [32]

การศึกษาเหตุผลเชิงกลหรือ"เป็นทางการ"เริ่มจากนักปรัชญาและนักคณิตศาสตร์ในสมัยโบราณ การศึกษาของตรรกะทางคณิตศาสตร์นำโดยตรงกับอลันทัวริง 's ทฤษฎีของการคำนวณซึ่งชี้ให้เห็นว่าเครื่องโดยสับสัญลักษณ์เป็นง่ายๆเป็น '0' และ '1' สามารถจำลองการกระทำที่เป็นไปได้ใด ๆ ของการหักคณิตศาสตร์ ความเข้าใจนี้ว่าคอมพิวเตอร์ดิจิตอลสามารถจำลองกระบวนการของการใช้เหตุผลอย่างเป็นทางการใด ๆ ที่เป็นที่รู้จักกันเป็นวิทยานิพนธ์โบสถ์ทัวริง [39]พร้อมกับการค้นพบที่เกิดขึ้นพร้อมกันในชีววิทยา , ทฤษฎีสารสนเทศและไซเบอร์เนติกส์นักวิจัยนำนี้จะต้องพิจารณาความเป็นไปได้ของการสร้างสมองอิเล็กทรอนิกส์ ทัวริงเสนอให้เปลี่ยนคำถามจากว่าเครื่องจักรมีความชาญฉลาดเป็น "เครื่องจักรจะแสดงพฤติกรรมที่ชาญฉลาดได้หรือไม่" [40]ผลงานชิ้นแรกที่รู้จักกันโดยทั่วไปว่า AI คือการออกแบบอย่างเป็นทางการของMcCullouchและPitts ในปี 1943 สำหรับ"เซลล์ประสาทเทียม" ของทัวริงที่สมบูรณ์ [41]

ด้านการวิจัย AI เกิดในการประชุมเชิงปฏิบัติการที่Dartmouth Collegeในปี 1956 [42]ที่คำว่า "ปัญญาประดิษฐ์" ได้รับการประกาศเกียรติคุณจากจอห์นแมคคาร์ที่จะแยกแยะข้อมูลจากไซเบอร์เนติกส์และหลบหนีอิทธิพลของ cyberneticist Norbert Wiener [43]ผู้เข้าร่วมAllen Newell ( CMU ), Herbert Simon (CMU), John McCarthy ( MIT ), Marvin Minsky (MIT) และArthur Samuel ( IBM ) กลายเป็นผู้ก่อตั้งและผู้นำการวิจัย AI [44]พวกเขาและนักเรียนผลิตรายการที่สื่อมวลชนอธิบายว่า "น่าอัศจรรย์": [45]คอมพิวเตอร์กำลังเรียนรู้กลยุทธ์การเล่นหมากฮอส (ค. 1954) [46] (และในปีพ. ศ. 2502 มีรายงานว่าเล่นได้ดีกว่ามนุษย์ทั่วไป), [47 ]การแก้ปัญหาคำศัพท์ในพีชคณิตการพิสูจน์ทฤษฎีบทเชิงตรรกะ ( Logic Theorist , first run c. 1956) และการพูดภาษาอังกฤษ [48]ในช่วงกลางทศวรรษ 1960 การวิจัยในสหรัฐอเมริกาได้รับทุนสนับสนุนอย่างมากจากกระทรวงกลาโหม[49]และมีการจัดตั้งห้องปฏิบัติการขึ้นทั่วโลก [50]ผู้ก่อตั้ง AI มองโลกในแง่ดีเกี่ยวกับอนาคต: เฮอร์เบิร์ตไซมอนทำนายว่า "เครื่องจักรจะมีความสามารถภายในยี่สิบปีในการทำงานใด ๆ ที่มนุษย์ทำได้" Marvin Minskyเห็นด้วยโดยเขียนว่า "ภายในชั่วอายุคน ... ปัญหาในการสร้าง 'ปัญญาประดิษฐ์' จะได้รับการแก้ไขอย่างมีนัยสำคัญ" [13]

พวกเขาล้มเหลวในการรับรู้ถึงความยากลำบากของงานบางส่วนที่เหลืออยู่ ความคืบหน้าช้าลงและในปีพ. ศ. 2517 เพื่อตอบสนองต่อคำวิจารณ์ของเซอร์เจมส์ไลท์ฮิลล์[51]และแรงกดดันอย่างต่อเนื่องจากรัฐสภาสหรัฐฯในการให้ทุนสนับสนุนโครงการที่มีประสิทธิผลมากขึ้นทั้งรัฐบาลสหรัฐฯและอังกฤษได้ตัดการวิจัยเชิงสำรวจใน AI ไม่กี่ปีต่อมาจะเรียกว่า " ฤดูหนาว AI " [15]ช่วงเวลาที่การได้รับเงินทุนสำหรับโครงการ AI เป็นเรื่องยาก

ในช่วงต้นทศวรรษที่ 1980 การวิจัย AI ก็ฟื้นขึ้นมาจากความสำเร็จในเชิงพาณิชย์ของระบบผู้เชี่ยวชาญ , [52]รูปแบบของโปรแกรม AI ที่จำลองความรู้และทักษะการวิเคราะห์ของผู้เชี่ยวชาญของมนุษย์ ในปี 1985 ตลาดสำหรับ AI มีมูลค่าสูงถึงกว่าพันล้านดอลลาร์ ในเวลาเดียวกันของญี่ปุ่นคอมพิวเตอร์รุ่นที่ห้าโครงการแรงบันดาลใจในสหรัฐและรัฐบาลอังกฤษจะเรียกคืนเงินทุนสำหรับการวิจัยทางวิชาการ [14]อย่างไรก็ตามเริ่มต้นด้วยการล่มสลายของตลาดLisp Machineในปี 1987 AI ก็ตกอยู่ในภาวะเสียชื่อเสียงอีกครั้งและวินาทีที่หายไปนานขึ้นก็เริ่มขึ้น [16]

การพัฒนาโลหะ - ออกไซด์ - เซมิคอนดักเตอร์ (MOS) การบูรณาการขนาดใหญ่มาก (VLSI) ในรูปแบบของเทคโนโลยีทรานซิสเตอร์เสริม MOS (CMOS) ทำให้สามารถพัฒนาเทคโนโลยีโครงข่ายประสาทเทียม (ANN) ที่ใช้งานได้จริงในช่วงทศวรรษที่ 1980 สิ่งพิมพ์ที่โดดเด่นในสาขานี้คือหนังสือAnalog VLSI Implementation of Neural Systemsในปี 1989 โดยCarver A.Meadและ Mohammed Ismail [53]

ในปี 1990 และในช่วงต้นศตวรรษที่ 21 ปลาย AI เริ่มที่จะนำมาใช้สำหรับการขนส่ง, การทำเหมืองข้อมูล , การวินิจฉัยทางการแพทย์และพื้นที่อื่น ๆ [36]ความสำเร็จเป็นผลมาจากการเพิ่มกำลังการคำนวณ (ดูกฎของมัวร์และทรานซิสเตอร์นับ ) เน้นความสำคัญในการแก้ปัญหาเฉพาะความสัมพันธ์ใหม่ระหว่าง AI และสาขาอื่น ๆ (เช่นสถิติ , เศรษฐศาสตร์และคณิตศาสตร์ ) และความมุ่งมั่นจากนักวิจัย วิธีการทางคณิตศาสตร์และมาตรฐานทางวิทยาศาสตร์ [54] Deep Blueกลายเป็นระบบการเล่นหมากรุกคอมพิวเตอร์เครื่องแรกที่เอาชนะแชมป์โลกหมากรุกแกร์รีคาสปารอฟเมื่อวันที่ 11 พฤษภาคม พ.ศ. 2540 [55]

ในปี 2554 ตกอยู่ในอันตราย! แบบทดสอบการแสดงงานมหกรรมการแข่งขัน, IBM 's คำถามระบบตอบรับ , วัตสันแพ้ทั้งสองที่ยิ่งใหญ่ที่สุดอันตราย! แชมป์เปี้ยนแบรดรัทเทอร์และเคนเจนนิงส์ด้วยอัตรากำไรขั้นต้นที่สำคัญ [56] คอมพิวเตอร์ที่เร็วขึ้นการปรับปรุงอัลกอริทึมและการเข้าถึงข้อมูลจำนวนมากทำให้เกิดความก้าวหน้าในการเรียนรู้และการรับรู้ของเครื่อง ข้อมูลหิวเรียนรู้ลึกวิธีการเริ่มต้นที่จะมาตรฐานความถูกต้องครองรอบ 2012 [57] Kinectซึ่งมีอินเตอร์เฟซที่ร่างกายเคลื่อนไหว 3 มิติสำหรับXbox 360และXbox Oneใช้อัลกอริทึมที่โผล่ออกมาจากความยาว AI วิจัย[58]เช่นเดียวกับผู้ช่วยส่วนตัวที่ชาญฉลาดในมาร์ทโฟน [59]ในเดือนมีนาคมปี 2016 AlphaGoชนะ 4 จาก 5 เกมไปในการแข่งขันกับ GO แชมป์อีเซดอลเป็นครั้งแรกคอมพิวเตอร์ไประบบ -playing จะชนะผู้เล่นมืออาชีพไปโดยไม่ต้องพิการ [10] [60]ใน 2017 อนาคตของไปประชุมสุดยอด , AlphaGoได้รับรางวัลการแข่งขันสามเกมกับKe Jie , [61]ซึ่งเป็นเวลาที่จัดขึ้นทั่วโลกครั้งที่ 1 การจัดอันดับสำหรับสองปีอย่างต่อเนื่อง [62] [63] Deep Blue 's เมอเรย์แคมป์เบลเรียกว่า AlphaGo ชัยชนะ 'สิ้นยุค ... เกมกระดานจะมากหรือน้อยทำ[64]และก็ถึงเวลาที่จะย้ายไป.' [65]นี่เป็นการเสร็จสิ้นขั้นตอนสำคัญในการพัฒนาปัญญาประดิษฐ์เนื่องจาก Go เป็นเกมที่ค่อนข้างซับซ้อนมากกว่าหมากรุก ต่อมา AlphaGo ได้รับการปรับปรุงโดยทั่วไปให้กับเกมอื่น ๆ เช่นหมากรุกกับAlphaZero ; [66]และMuZero [67]เพื่อเล่นวิดีโอเกมต่างๆมากมายซึ่งก่อนหน้านี้ได้รับการจัดการแยกกัน[68]นอกเหนือจากเกมกระดาน โปรแกรมอื่น ๆ จัดการเกมข้อมูลที่ไม่สมบูรณ์ เช่นโป๊กเกอร์ในระดับที่เหนือมนุษย์พลุ (บอโป๊กเกอร์) [69]และเซเฟอุส (บอโป๊กเกอร์) [11]โปรดดู: เกมการเล่นทั่วไป

จากข้อมูลของ Jack Clark จากBloombergระบุว่าปี 2015 เป็นปีที่สำคัญสำหรับปัญญาประดิษฐ์โดยมีจำนวนโครงการซอฟต์แวร์ที่ใช้ AI ภายในGoogleเพิ่มขึ้นจาก "การใช้งานเป็นระยะ ๆ " ในปี 2555 เป็นมากกว่า 2,700 โครงการ นอกจากนี้คลาร์กยังนำเสนอข้อมูลที่เป็นข้อเท็จจริงซึ่งระบุถึงการปรับปรุง AI ตั้งแต่ปี 2555 ซึ่งได้รับการสนับสนุนโดยอัตราความผิดพลาดที่ลดลงในงานประมวลผลภาพ [70]เขาอ้างว่าสิ่งนี้มาจากการเพิ่มขึ้นของเครือข่ายประสาทเทียมที่มีราคาไม่แพงเนื่องจากโครงสร้างพื้นฐานการประมวลผลแบบคลาวด์ที่เพิ่มขึ้นและเครื่องมือวิจัยและชุดข้อมูลที่เพิ่มขึ้น [17]ตัวอย่างที่อ้างถึงอื่น ๆ ได้แก่ การพัฒนาระบบ Skype ของ Microsoft ที่สามารถแปลจากภาษาหนึ่งไปยังอีกภาษาหนึ่งโดยอัตโนมัติและระบบของ Facebook ที่สามารถอธิบายภาพให้คนตาบอดฟังได้ [70]ในการสำรวจปี 2017 บริษัท หนึ่งในห้ารายงานว่าพวกเขา "รวม AI ไว้ในข้อเสนอหรือกระบวนการบางอย่าง" [71] [72]ประมาณปี 2559 จีนเร่งระดมทุนจากรัฐบาลอย่างมาก เนื่องจากมีข้อมูลจำนวนมากและผลงานวิจัยที่เพิ่มขึ้นอย่างรวดเร็วผู้สังเกตการณ์บางคนเชื่อว่าอาจจะกลายเป็น "มหาอำนาจ AI" [73] [74]

ภายในปี 2020 ระบบประมวลผลภาษาธรรมชาติเช่นGPT-3ขนาดมหึมา(จากนั้นก็คือโครงข่ายประสาทเทียมที่ใหญ่ที่สุด) ได้จับคู่ประสิทธิภาพของมนุษย์ในเกณฑ์มาตรฐานที่มีอยู่แล้วแม้ว่าระบบจะไม่เข้าใจเนื้อหาของเกณฑ์มาตรฐาน [75] AlphaFold 2 (2020) ของ DeepMind แสดงให้เห็นถึงความสามารถในการระบุโครงสร้าง 3 มิติของโปรตีนในเวลาไม่กี่ชั่วโมงแทนที่จะเป็นเดือน การจดจำใบหน้าก้าวหน้าไปถึงที่ในบางสถานการณ์บางระบบอ้างว่ามีอัตราความแม่นยำ 99% [76]

วิทยาการคอมพิวเตอร์ให้คำจำกัดความของการวิจัย AI ว่าเป็นการศึกษา " ตัวแทนอัจฉริยะ ": อุปกรณ์ใด ๆ ที่รับรู้สภาพแวดล้อมของมันและดำเนินการเพื่อเพิ่มโอกาสในการบรรลุเป้าหมาย [3]คำจำกัดความที่ละเอียดยิ่งขึ้นระบุลักษณะของ AI ว่า "ความสามารถของระบบในการตีความข้อมูลภายนอกอย่างถูกต้องเพื่อเรียนรู้จากข้อมูลดังกล่าวและใช้การเรียนรู้เหล่านั้นเพื่อบรรลุเป้าหมายและงานที่เฉพาะเจาะจงผ่านการปรับตัวที่ยืดหยุ่น" [77]

AI ทั่วไปจะวิเคราะห์สภาพแวดล้อมและดำเนินการเพื่อเพิ่มโอกาสในการประสบความสำเร็จ [3]ฟังก์ชันยูทิลิตี้ที่ตั้งใจไว้(หรือเป้าหมาย) ของ AI อาจเป็นเรื่องง่าย ("1 ถ้า AI ชนะเกมGo , 0 มิฉะนั้น") หรือซับซ้อน ("ดำเนินการทางคณิตศาสตร์คล้ายกับที่ประสบความสำเร็จในอดีต") เป้าหมายสามารถกำหนดหรือทำให้เกิดขึ้นได้อย่างชัดเจน หาก AI ได้รับการตั้งโปรแกรมสำหรับ " การเรียนรู้แบบเสริมกำลัง " เป้าหมายอาจถูกกระตุ้นโดยปริยายโดยการให้รางวัลพฤติกรรมบางประเภทหรือลงโทษผู้อื่น [a]อีกวิธีหนึ่งระบบวิวัฒนาการสามารถกระตุ้นเป้าหมายโดยใช้ " ฟังก์ชันการออกกำลังกาย " ในการกลายพันธุ์และจำลองระบบ AI ที่ให้คะแนนสูงได้ดีกว่าเช่นเดียวกับการที่สัตว์วิวัฒนาการมาเพื่อต้องการเป้าหมายบางอย่างโดยกำเนิดเช่นการหาอาหาร [78]ระบบ AI บางระบบเช่นเพื่อนบ้านที่ใกล้ที่สุดแทนที่จะใช้เหตุผลโดยการเปรียบเทียบระบบเหล่านี้ไม่ได้กำหนดเป้าหมายโดยทั่วไปยกเว้นในระดับที่เป้าหมายมีความหมายโดยนัยในข้อมูลการฝึกอบรมของพวกเขา [79]ระบบดังกล่าวยังคงสามารถเปรียบเทียบได้หากระบบที่ไม่ใช่เป้าหมายถูกจัดกรอบให้เป็นระบบที่ "เป้าหมาย" คือการบรรลุภารกิจการจัดประเภทแคบ ๆ ให้สำเร็จ [80]

AI มักจะหมุนรอบการใช้งานของอัลกอริทึม อัลกอริทึมคือชุดคำสั่งที่ไม่คลุมเครือซึ่งคอมพิวเตอร์เชิงกลสามารถดำเนินการได้ [b]อัลกอริทึมที่ซับซ้อนมักสร้างขึ้นเหนืออัลกอริทึมอื่น ๆ ที่ง่ายกว่า ตัวอย่างง่ายๆของอัลกอริทึมคือสูตรต่อไปนี้ (เหมาะสำหรับผู้เล่นคนแรก) สำหรับการเล่นที่tic-tac-toe : [81]

  1. หากมี "ภัยคุกคาม" (นั่นคือสองตัวติดต่อกัน) ให้ใช้สี่เหลี่ยมจัตุรัสที่เหลือ มิฉะนั้น,
  2. หากมีการย้าย "ส้อม" เพื่อสร้างภัยคุกคามสองครั้งพร้อมกันให้เล่นท่านั้น มิฉะนั้น,
  3. ใช้สี่เหลี่ยมจัตุรัสตรงกลางถ้าว่าง มิฉะนั้น,
  4. หากคู่ต่อสู้ของคุณเล่นในมุมหนึ่งให้เข้ามุมตรงข้าม มิฉะนั้น,
  5. ใช้มุมที่ว่างเปล่าถ้ามีอยู่ มิฉะนั้น,
  6. หาสี่เหลี่ยมว่าง ๆ

อัลกอริทึม AI จำนวนมากสามารถเรียนรู้จากข้อมูลได้ พวกเขาสามารถปรับปรุงตัวเองได้โดยการเรียนรู้การวิเคราะห์พฤติกรรมใหม่ ๆ(กลยุทธ์หรือ "กฎง่ายๆ" ที่ใช้งานได้ดีในอดีต) หรือสามารถเขียนอัลกอริทึมอื่น ๆ "ผู้เรียน" บางส่วนที่อธิบายไว้ด้านล่างรวมถึงเครือข่ายแบบเบย์ต้นไม้แห่งการตัดสินใจและเพื่อนบ้านที่ใกล้ที่สุดสามารถเรียนรู้ในทางทฤษฎี (ข้อมูลเวลาและหน่วยความจำที่ให้ข้อมูลที่ไม่มีที่สิ้นสุด) เรียนรู้ที่จะประมาณฟังก์ชันใด ๆรวมถึงฟังก์ชันทางคณิตศาสตร์ที่รวมกันที่จะอธิบายได้ดีที่สุด โลก. [ ต้องการอ้างอิง ]ดังนั้นผู้เรียนเหล่านี้จึงสามารถได้รับความรู้ที่เป็นไปได้ทั้งหมดโดยพิจารณาจากสมมติฐานที่เป็นไปได้ทั้งหมดและจับคู่กับข้อมูล ในทางปฏิบัติแทบจะเป็นไปไม่ได้ที่จะพิจารณาทุกความเป็นไปได้เนื่องจากปรากฏการณ์ " การระเบิดแบบผสมผสาน " ซึ่งเวลาที่ต้องใช้ในการแก้ปัญหาจะเพิ่มขึ้นอย่างทวีคูณ การวิจัย AI ส่วนใหญ่เกี่ยวข้องกับการหาวิธีระบุและหลีกเลี่ยงการพิจารณาความเป็นไปได้ในวงกว้างที่ไม่น่าจะเป็นประโยชน์ [82] [83]ตัวอย่างเช่นเมื่อดูแผนที่และกำลังมองหาเส้นทางขับรถที่สั้นที่สุดจากเดนเวอร์ไปยังนิวยอร์กในฝั่งตะวันออกในกรณีส่วนใหญ่สามารถข้ามไปดูเส้นทางใดก็ได้ผ่านซานฟรานซิสโกหรือพื้นที่อื่น ๆ ที่อยู่ไกลออกไปทางตะวันตก ดังนั้น AI ที่ใช้อัลกอริธึมการค้นหาเส้นทางเช่นA *สามารถหลีกเลี่ยงการระเบิดของ Combinatorial ที่จะตามมาหากทุกเส้นทางที่เป็นไปได้ต้องได้รับการพิจารณาอย่างรอบคอบ [84]

วิธีที่เร็วที่สุด (และเข้าใจง่ายที่สุด) สำหรับ AI คือสัญลักษณ์ (เช่นตรรกะที่เป็นทางการ): "ถ้าผู้ใหญ่ที่มีสุขภาพดีมีไข้ก็อาจเป็นไข้หวัดใหญ่ " แนวทางที่สองโดยทั่วไปมากขึ้นคือการอนุมานแบบเบย์ : "หากผู้ป่วยปัจจุบันมีไข้ให้ปรับความน่าจะเป็นที่พวกเขามีไข้หวัดใหญ่ในลักษณะดังกล่าว" แนวทางหลักประการที่สามซึ่งได้รับความนิยมอย่างมากในแอปพลิเคชัน AI ทางธุรกิจประจำคือตัวเปรียบเทียบเช่นSVMและเพื่อนบ้านที่ใกล้ที่สุด : "หลังจากตรวจสอบบันทึกของผู้ป่วยในอดีตที่รู้จักซึ่งอุณหภูมิอาการอายุและปัจจัยอื่น ๆ ส่วนใหญ่ตรงกับผู้ป่วยปัจจุบัน X% ของผู้ป่วยเหล่านั้นกลายเป็นไข้หวัดใหญ่ " แนวทางที่สี่ยากที่จะเข้าใจโดยสัญชาตญาณ แต่ได้รับแรงบันดาลใจจากวิธีการทำงานของกลไกของสมอง: วิธีเครือข่ายประสาทเทียมใช้ " เซลล์ประสาท " เทียมที่สามารถเรียนรู้โดยการเปรียบเทียบตัวเองกับผลลัพธ์ที่ต้องการและปรับเปลี่ยนจุดแข็งของการเชื่อมต่อระหว่างเซลล์ประสาทภายใน เพื่อ "เสริมสร้าง" การเชื่อมต่อที่ดูเหมือนจะมีประโยชน์ แนวทางหลักทั้งสี่นี้สามารถทับซ้อนกันและด้วยระบบวิวัฒนาการ ตัวอย่างเช่นตาข่ายประสาทสามารถเรียนรู้ที่จะทำการอนุมานเพื่อสรุปและเปรียบเทียบได้ บางระบบใช้วิธีการเหล่านี้หลายวิธีโดยปริยายหรือโดยชัดแจ้งควบคู่ไปกับอัลกอริทึม AI และไม่ใช่ AI อื่น ๆ อีกมากมาย แนวทางที่ดีที่สุดมักจะแตกต่างกันไปขึ้นอยู่กับปัญหา [85] [86]

อัลกอริทึมการเรียนรู้ทำงานบนพื้นฐานที่ว่ากลยุทธ์อัลกอริทึมและการอนุมานที่ทำงานได้ดีในอดีตมีแนวโน้มที่จะทำงานได้ดีต่อไปในอนาคต การอนุมานเหล่านี้สามารถเห็นได้ชัดเช่น "เนื่องจากดวงอาทิตย์ขึ้นทุกเช้าในช่วง 10,000 วันที่ผ่านมามันก็อาจจะขึ้นในเช้าวันพรุ่งนี้เช่นกัน" พวกมันสามารถปรับให้เหมาะสมได้เช่น "X% ของครอบครัวมีสายพันธุ์ที่แยกจากกันทางภูมิศาสตร์โดยมีสีที่แตกต่างกันดังนั้นจึงมีโอกาส Y% ที่หงส์ดำที่ยังไม่ได้ค้นพบ" ผู้เรียนยังทำงานบนพื้นฐานของ " Occam's razor ": ทฤษฎีที่ง่ายที่สุดที่อธิบายข้อมูลนั้นมีความคล้ายคลึงกันมากที่สุด ดังนั้นตามหลักการมีดโกนของ Occam ผู้เรียนจะต้องได้รับการออกแบบให้ชอบทฤษฎีที่ง่ายกว่าไปสู่ทฤษฎีที่ซับซ้อนยกเว้นในกรณีที่ทฤษฎีที่ซับซ้อนได้รับการพิสูจน์แล้วว่าดีกว่ามาก

เส้นสีน้ำเงินอาจเป็นตัวอย่างของ การติดตั้งฟังก์ชันเชิงเส้นมากเกินไปเนื่องจากสัญญาณรบกวนแบบสุ่ม

การจัดการกับทฤษฎีที่ไม่ดีและซับซ้อนเกินไปซึ่งได้รับการปรับแต่งให้เหมาะสมกับข้อมูลการฝึกอบรมที่ผ่านมาทั้งหมดเรียกว่าการฟิตติ้งมากเกินไป ระบบจำนวนมากพยายามลดการใส่อุปกรณ์มากเกินไปโดยให้รางวัลแก่ทฤษฎีตามความเหมาะสมของข้อมูล แต่จะลงโทษทฤษฎีตามความซับซ้อนของทฤษฎี [87]นอกจากการฟิตติ้งแบบคลาสสิกมากเกินไปแล้วผู้เรียนยังสามารถทำให้ผิดหวังได้ด้วยการ "เรียนรู้บทเรียนที่ผิด" ตัวอย่างของเล่นคือลักษณนามภาพที่ฝึกเฉพาะภาพม้าสีน้ำตาลและแมวดำอาจสรุปได้ว่าแผ่นแปะสีน้ำตาลทั้งหมดน่าจะเป็นม้า [88]ตัวอย่างในโลกแห่งความเป็นจริงก็คือไม่เหมือนกับมนุษย์ตัวแยกประเภทรูปภาพในปัจจุบันมักไม่ได้ทำการตัดสินจากความสัมพันธ์เชิงพื้นที่ระหว่างส่วนประกอบของรูปภาพเป็นหลักและพวกเขาเรียนรู้ความสัมพันธ์ระหว่างพิกเซลที่มนุษย์ลืมเลือนไป แต่ก็ยังคงมีความสัมพันธ์กัน ด้วยภาพของวัตถุจริงบางประเภท การแก้ไขรูปแบบเหล่านี้บนรูปภาพที่ถูกต้องอาจส่งผลให้เกิดภาพ "ฝ่ายตรงข้าม" ที่ระบบจัดประเภทไม่ถูกต้อง [c] [89] [90]

ระบบรถยนต์ที่ขับเคลื่อนด้วยตัวเองอาจใช้โครงข่ายประสาทเทียมเพื่อพิจารณาว่าส่วนใดของภาพที่ดูเหมือนจะตรงกับภาพการฝึกของคนเดินเท้าก่อนหน้านี้จากนั้นจึงจำลองพื้นที่เหล่านั้นเป็นปริซึมสี่เหลี่ยมที่เคลื่อนไหวช้า แต่ไม่สามารถคาดเดาได้ซึ่งต้องหลีกเลี่ยง

เมื่อเทียบกับมนุษย์ AI ที่มีอยู่ขาดคุณสมบัติหลายประการของมนุษย์ " commonsense เหตุผล "; โดยเฉพาะอย่างยิ่งมนุษย์มีกลไกที่ทรงพลังในการหาเหตุผลเกี่ยวกับ " ฟิสิกส์ไร้เดียงสา " เช่นอวกาศเวลาและปฏิสัมพันธ์ทางกายภาพ ซึ่งช่วยให้แม้แต่เด็กเล็ก ๆ ก็สามารถอนุมานได้อย่างง่ายดายเช่น "ถ้าฉันหมุนปากกาออกจากโต๊ะปากกาจะตกลงบนพื้น" มนุษย์ยังมีกลไกที่ทรงพลังของ " จิตวิทยาชาวบ้าน " ที่ช่วยให้พวกเขาตีความประโยคที่เป็นภาษาธรรมชาติเช่น "สมาชิกสภาเมืองปฏิเสธใบอนุญาตให้ผู้ชุมนุมประท้วงเพราะพวกเขาสนับสนุนความรุนแรง" (AI ทั่วไปมีปัญหาในการแยกแยะว่าคนที่ถูกกล่าวหาว่าสนับสนุนหรือไม่ ความรุนแรงคือสมาชิกสภาหรือผู้ชุมนุม[91] [92] [93] ) การขาด "ความรู้ทั่วไป" นี้หมายความว่า AI มักจะทำผิดพลาดต่างจากที่มนุษย์ทำในรูปแบบที่ดูเหมือนจะไม่สามารถเข้าใจได้ ตัวอย่างเช่นรถยนต์ที่ขับเคลื่อนด้วยตัวเองที่มีอยู่ไม่สามารถให้เหตุผลเกี่ยวกับสถานที่ตั้งหรือความตั้งใจของคนเดินถนนในแบบที่มนุษย์ทำและต้องใช้รูปแบบการให้เหตุผลที่ไม่ใช่ของมนุษย์แทนเพื่อหลีกเลี่ยงอุบัติเหตุ [94] [95] [96]

ความสามารถในการรับรู้ของสถาปัตยกรรมปัจจุบันมี จำกัด มากโดยใช้เพียงเวอร์ชันที่เรียบง่ายของสิ่งที่ปัญญาสามารถทำได้เท่านั้น ตัวอย่างเช่นจิตใจของมนุษย์ได้คิดหาเหตุผลที่อยู่เหนือการวัดและคำอธิบายเชิงตรรกะต่อเหตุการณ์ต่างๆในชีวิต สิ่งที่จะตรงไปตรงมาเป็นอย่างอื่นปัญหาที่ยากพอ ๆ กันอาจเป็นเรื่องท้าทายในการแก้ปัญหาด้วยการคำนวณซึ่งต่างจากการใช้ความคิดของมนุษย์ สิ่งนี้ก่อให้เกิดโมเดลสองประเภท: นักโครงสร้างและนักปฏิบัติงาน แบบจำลองโครงสร้างมีจุดมุ่งหมายเพื่อเลียนแบบการดำเนินการด้านสติปัญญาพื้นฐานของจิตใจอย่างหลวม ๆ เช่นการใช้เหตุผลและตรรกะ แบบจำลองการทำงานหมายถึงข้อมูลที่สัมพันธ์กันกับข้อมูลที่คำนวณได้ [97]

เป้าหมายการวิจัยโดยรวมของปัญญาประดิษฐ์คือการสร้างเทคโนโลยีที่ช่วยให้คอมพิวเตอร์และเครื่องจักรทำงานได้อย่างชาญฉลาด ปัญหาทั่วไปของการจำลอง (หรือการสร้าง) ปัญญาถูกแยกย่อยออกเป็นปัญหาย่อย สิ่งเหล่านี้ประกอบด้วยลักษณะเฉพาะหรือความสามารถที่นักวิจัยคาดหวังว่าระบบอัจฉริยะจะแสดง ลักษณะที่อธิบายด้านล่างนี้ได้รับความสนใจมากที่สุด [20]

การใช้เหตุผลการแก้ปัญหา

นักวิจัยรุ่นแรกได้พัฒนาอัลกอริทึมที่เลียนแบบการให้เหตุผลทีละขั้นตอนที่มนุษย์ใช้เมื่อพวกเขาไขปริศนาหรือทำการหักเงินเชิงตรรกะ [98]ในช่วงปลายปี 1980 และ 1990 การวิจัย AI ได้พัฒนาวิธีการจัดการกับความไม่แน่นอนข้อมูลหรือไม่สมบูรณ์จ้างแนวคิดจากความน่าจะเป็นและเศรษฐศาสตร์ [99]

อัลกอริทึมเหล่านี้พิสูจน์แล้วว่าไม่เพียงพอสำหรับการแก้ปัญหาการใช้เหตุผลจำนวนมากเนื่องจากพวกเขาประสบกับ "การระเบิดร่วมกัน": พวกมันช้าลงอย่างทวีคูณเมื่อปัญหาใหญ่ขึ้น [82]แม้แต่มนุษย์ก็แทบจะไม่ใช้การหักทีละขั้นตอนที่การวิจัย AI ในยุคแรกสามารถจำลองได้ พวกเขาแก้ปัญหาส่วนใหญ่โดยใช้การตัดสินที่รวดเร็วและใช้งานง่าย [100]

การแสดงความรู้

ภววิทยาแสดงถึงความรู้เป็นชุดของแนวคิดภายในโดเมนและความสัมพันธ์ระหว่างแนวคิดเหล่านั้น

การแสดงความรู้[101]และวิศวกรรมความรู้[102]เป็นหัวใจสำคัญของการวิจัย AI แบบคลาสสิก "ระบบผู้เชี่ยวชาญ" บางระบบพยายามรวบรวมความรู้ที่ชัดเจนที่มีผู้เชี่ยวชาญในโดเมนแคบ ๆ นอกจากนี้บางโครงการพยายามรวบรวม "ความรู้ทั่วไป" ที่คนทั่วไปรู้จักกันในฐานข้อมูลที่มีความรู้มากมายเกี่ยวกับโลก ในบรรดาสิ่งที่ฐานความรู้ทั่วไปที่ครอบคลุมจะประกอบด้วยวัตถุคุณสมบัติหมวดหมู่และความสัมพันธ์ระหว่างวัตถุ [103]สถานการณ์เหตุการณ์สถานะและเวลา; [104]เหตุและผล; [105]ความรู้เกี่ยวกับความรู้ (สิ่งที่เรารู้เกี่ยวกับสิ่งที่คนอื่นรู้); [106]และโดเมนอื่น ๆ อีกมากมายที่มีการวิจัยน้อย การเป็นตัวแทนของ "สิ่งที่มีอยู่" คือภววิทยา : ชุดของวัตถุความสัมพันธ์แนวคิดและคุณสมบัติที่อธิบายอย่างเป็นทางการเพื่อให้ตัวแทนซอฟต์แวร์สามารถตีความได้ ความหมายเหล่านี้จะถูกจับเป็นตรรกะคำอธิบายแนวคิดบทบาทและบุคคลและมักจะนำมาใช้เป็นเรียน, คุณสมบัติและบุคคลในอภิปรัชญาเว็บภาษา [107]ออนโทโลยีทั่วไปส่วนใหญ่เรียกว่าออนโทโลยีชั้นสูงซึ่งพยายามสร้างรากฐานสำหรับความรู้อื่น ๆ ทั้งหมด[108]โดยทำหน้าที่เป็นสื่อกลางระหว่างออนโทโลยีของโดเมนที่ครอบคลุมความรู้เฉพาะเกี่ยวกับโดเมนความรู้เฉพาะ (สาขาที่สนใจหรือประเด็นที่น่ากังวล) . การแสดงความรู้อย่างเป็นทางการดังกล่าวสามารถใช้ในการจัดทำดัชนีและการดึงเนื้อหาตามเนื้อหา[109]การตีความฉาก[110]การสนับสนุนการตัดสินใจทางคลินิก[111] การค้นพบความรู้ (การขุด "น่าสนใจ" และการอนุมานที่นำไปใช้ได้จริงจากฐานข้อมูลขนาดใหญ่) [112]และ พื้นที่อื่น ๆ [113]

ปัญหาที่ยากที่สุดในการแสดงความรู้ ได้แก่ :

การให้เหตุผลเริ่มต้นและ ปัญหาคุณสมบัติ
หลายสิ่งที่ผู้คนรู้จักอยู่ในรูปแบบของ "สมมติฐานการทำงาน" ตัวอย่างเช่นหากมีนกมาสนทนากันผู้คนมักจะนึกภาพสัตว์ขนาดเท่ากำปั้นที่ร้องและบินได้ สิ่งเหล่านี้ไม่เป็นความจริงเกี่ยวกับนกทั้งหมด จอห์นแม็คคาร์ธีระบุปัญหานี้ในปี พ.ศ. 2512 [114]ว่าเป็นปัญหาคุณสมบัติ: สำหรับกฎทั่วไปที่นักวิจัย AI สนใจที่จะเป็นตัวแทนมีแนวโน้มที่จะมีข้อยกเว้นจำนวนมาก แทบไม่มีอะไรเป็นจริงหรือเท็จในแบบที่ตรรกะนามธรรมต้องการ การวิจัย AI ได้สำรวจวิธีแก้ปัญหานี้หลายวิธี [115]
ความรู้ทั่วไป
จำนวนปรมาณูข้อเท็จจริงที่คนทั่วไปรู้นั้นมีมาก โครงการวิจัยที่พยายามสร้างฐานความรู้ที่สมบูรณ์ของ ความรู้ทั่วไป (เช่น Cyc ) ต้องใช้วิศวกรรมออนโทโลยีที่ใช้แรงงานจำนวนมหาศาลซึ่ง จะต้องสร้างขึ้นด้วยมือทีละแนวคิดที่ซับซ้อน [116]
รูปแบบย่อยของความรู้ทั่วไป
สิ่งที่ผู้คนส่วนใหญ่รู้ไม่ได้แสดงเป็น "ข้อเท็จจริง" หรือ "ข้อความ" ที่พวกเขาสามารถแสดงออกด้วยวาจาได้ ตัวอย่างเช่นนักหมากรุกจะหลีกเลี่ยงตำแหน่งหมากรุกโดยเฉพาะเพราะ "รู้สึกโล่งเกินไป" [117]หรือนักวิจารณ์ศิลปะสามารถดูรูปปั้นและรู้ว่าเป็นของปลอม [118] สิ่งเหล่านี้เป็นสัญชาตญาณหรือแนวโน้มที่ไม่รู้สึกตัวและเป็นสัญลักษณ์ย่อยในสมองของมนุษย์ [119]ความรู้เช่นนี้แจ้งสนับสนุนและให้บริบทสำหรับความรู้เชิงสัญลักษณ์และมีสติ เช่นเดียวกับปัญหาที่เกี่ยวข้องกับการให้เหตุผลย่อยสัญลักษณ์ก็หวังว่า อยู่ AI , ปัญญาประดิษฐ์หรือ สถิติ AIจะให้วิธีการที่จะเป็นตัวแทนของความรู้นี้ [119]

การวางแผน

ระบบการควบคุมลำดับชั้นเป็นรูปแบบของ ระบบการควบคุมซึ่งเป็นชุดของอุปกรณ์และซอฟต์แวร์ที่ปกครองอยู่ในการจัดลำดับชั้น

ตัวแทนที่ชาญฉลาดต้องสามารถกำหนดเป้าหมายและบรรลุเป้าหมายได้ [120]พวกเขาต้องการวิธีที่จะเห็นภาพอนาคตซึ่งเป็นตัวแทนของสถานะของโลกและสามารถคาดเดาได้ว่าการกระทำของพวกเขาจะเปลี่ยนแปลงไปอย่างไร - และสามารถเลือกทางเลือกที่เพิ่มประโยชน์สูงสุดให้กับประโยชน์ (หรือ "มูลค่า") ของทางเลือกที่มีอยู่ [121]

ในปัญหาการวางแผนแบบคลาสสิกตัวแทนสามารถสันนิษฐานได้ว่าเป็นระบบเดียวที่ทำหน้าที่ในโลกทำให้ตัวแทนสามารถมั่นใจได้ถึงผลที่ตามมาจากการกระทำของมัน [122]อย่างไรก็ตามหากตัวแทนไม่ใช่นักแสดงเพียงคนเดียวก็ต้องให้ตัวแทนสามารถให้เหตุผลได้ภายใต้ความไม่แน่นอน สิ่งนี้เรียกร้องให้มีตัวแทนที่ไม่เพียง แต่สามารถประเมินสภาพแวดล้อมและทำการคาดการณ์เท่านั้น แต่ยังประเมินการคาดการณ์และปรับตัวตามการประเมินของมันด้วย [123]

การวางแผนหลายตัวแทนใช้ความร่วมมือและการแข่งขันของตัวแทนจำนวนมากเพื่อให้บรรลุเป้าหมายที่กำหนด พฤติกรรมฉุกเฉินเช่นนี้จะใช้ขั้นตอนวิธีวิวัฒนาการและความฉลาดแบบกลุ่ม [124]

การเรียนรู้

สำหรับโครงการนี้เอไอได้ไปหารูปแบบทั่วไปในสีและพู่กันของยุคฟื้นฟูศิลปวิทยาจิตรกร ราฟาเอล ภาพบุคคลแสดงใบหน้าของนักแสดงหญิงออร์เนลลา มูตี "วาด" โดย AI ในสไตล์ของราฟาเอล

แมชชีนเลิร์นนิง (ML) ซึ่งเป็นแนวคิดพื้นฐานของการวิจัย AI ตั้งแต่เริ่มก่อตั้งภาคสนาม[d]คือการศึกษาอัลกอริทึมคอมพิวเตอร์ที่ปรับปรุงโดยอัตโนมัติผ่านประสบการณ์ [e] [127]

การเรียนรู้ที่ไม่มีผู้ดูแลคือความสามารถในการค้นหารูปแบบในกระแสข้อมูลเข้าโดยไม่ต้องให้มนุษย์ติดป้ายกำกับปัจจัยการผลิตก่อน การเรียนรู้ภายใต้การดูแลมีทั้งการจำแนกประเภทและการถดถอยเชิงตัวเลขซึ่งต้องใช้มนุษย์ในการติดป้ายกำกับข้อมูลอินพุตก่อน การจัดหมวดหมู่ใช้เพื่อพิจารณาว่าสิ่งที่อยู่ในหมวดหมู่ใดและเกิดขึ้นหลังจากโปรแกรมเห็นตัวอย่างของสิ่งต่างๆจากหลายหมวดหมู่ การถดถอยคือความพยายามในการสร้างฟังก์ชันที่อธิบายความสัมพันธ์ระหว่างอินพุตและเอาต์พุตและคาดการณ์ว่าเอาต์พุตควรเปลี่ยนไปอย่างไรเมื่ออินพุตเปลี่ยนไป [127]ทั้งลักษณนามและผู้เรียนการถดถอยสามารถมองว่าเป็น "ตัวประมาณฟังก์ชัน" ที่พยายามเรียนรู้ฟังก์ชันที่ไม่รู้จัก ตัวอย่างเช่นตัวจำแนกสแปมสามารถมองว่าเป็นการเรียนรู้ฟังก์ชันที่จับคู่จากข้อความของอีเมลกับหนึ่งในสองหมวดหมู่ "สแปม" หรือ "ไม่ใช่สแปม" ทฤษฎีการเรียนรู้การคำนวณสามารถประเมินผู้เรียนโดยคอมพิวเตอร์ที่ซับซ้อนโดยความซับซ้อนตัวอย่าง (เท่าใดข้อมูลจะถูกต้อง) หรือโดยความคิดอื่น ๆ ของการเพิ่มประสิทธิภาพ [128]ในการเรียนรู้แบบเสริมกำลัง[129]ตัวแทนจะได้รับรางวัลสำหรับการตอบสนองที่ดีและถูกลงโทษสำหรับคนที่ไม่ดี ตัวแทนใช้ลำดับของรางวัลและการลงโทษนี้เพื่อกำหนดกลยุทธ์สำหรับการดำเนินงานในพื้นที่ที่มีปัญหา

การประมวลผลภาษาธรรมชาติ

ต้นไม้แยกหมายถึง ประโยคโครงสร้างของประโยคตามบาง ไวยากรณ์อย่างเป็นทางการ

การประมวลผลภาษาธรรมชาติ[130] (NLP) ช่วยให้เครื่องอ่านและเข้าใจภาษามนุษย์ได้ ระบบประมวลผลภาษาธรรมชาติที่มีประสิทธิภาพเพียงพอจะเปิดใช้งานอินเทอร์เฟซผู้ใช้ที่เป็นภาษาธรรมชาติและการได้มาซึ่งความรู้โดยตรงจากแหล่งที่เขียนโดยมนุษย์เช่นข้อความของ newswire บางโปรแกรมตรงไปตรงมาของการประมวลผลภาษาธรรมชาติรวมถึงการดึงข้อมูล , การทำเหมืองข้อความ , การตอบคำถามและการแปลภาษาด้วยเครื่อง [131]แนวทางปัจจุบันจำนวนมากใช้ความถี่ที่เกิดร่วมของคำเพื่อสร้างการแสดงข้อความในรูปแบบวากยสัมพันธ์ กลยุทธ์ "การระบุคีย์เวิร์ด" สำหรับการค้นหาเป็นที่นิยมและสามารถปรับขนาดได้ แต่โง่ ข้อความค้นหา "สุนัข" อาจตรงกับเอกสารที่มีคำว่า "สุนัข" ตามตัวอักษรเท่านั้นและพลาดเอกสารที่มีคำว่า "พุดเดิ้ล" กลยุทธ์ "ความสัมพันธ์คำศัพท์" ใช้การเกิดขึ้นของคำต่างๆเช่น "อุบัติเหตุ" เพื่อประเมินความรู้สึกของเอกสาร แนวทาง NLP ทางสถิติสมัยใหม่สามารถรวมกลยุทธ์เหล่านี้ทั้งหมดเข้าด้วยกันและอื่น ๆ และมักจะบรรลุความแม่นยำที่ยอมรับได้ในระดับหน้าหรือย่อหน้า นอกเหนือจาก NLP เชิงความหมายแล้วเป้าหมายสูงสุดของ NLP แบบ "เล่าเรื่อง" คือการรวบรวมความเข้าใจอย่างถ่องแท้เกี่ยวกับเหตุผลทั่วไป [132]ภายในปี 2019 สถาปัตยกรรมการเรียนรู้เชิงลึกที่ใช้หม้อแปลงสามารถสร้างข้อความที่สอดคล้องกันได้ [133]

การรับรู้

การตรวจจับคุณลักษณะ (ในภาพ: การตรวจจับขอบ ) ช่วยให้ AI สร้างโครงสร้างนามธรรมที่ให้ข้อมูลจากข้อมูลดิบ

การรับรู้ของเครื่องจักร[134]คือความสามารถในการใช้อินพุตจากเซ็นเซอร์ (เช่นกล้อง (สเปกตรัมที่มองเห็นได้หรืออินฟราเรด) ไมโครโฟนสัญญาณไร้สายและไลดาร์ที่ใช้งานโซนาร์เรดาร์และเซ็นเซอร์สัมผัส ) เพื่อสรุปแง่มุมต่างๆของโลก ใช้งานรวมถึงการรู้จำเสียง , [135] การจดจำใบหน้าและการรับรู้วัตถุ [136] การ มองเห็นด้วยคอมพิวเตอร์คือความสามารถในการวิเคราะห์การป้อนข้อมูลด้วยภาพ ข้อมูลดังกล่าวมักจะคลุมเครือ คนเดินเท้าขนาดยักษ์สูงห้าสิบเมตรที่อยู่ไกลออกไปอาจสร้างพิกเซลเช่นเดียวกับคนเดินเท้าขนาดปกติที่อยู่ใกล้เคียงซึ่งต้องให้ AI ตัดสินความเป็นไปได้และความสมเหตุสมผลของการตีความที่แตกต่างกันตัวอย่างเช่นโดยใช้ "แบบจำลองวัตถุ" เพื่อประเมินว่า ไม่มีคนเดินเท้าห้าสิบเมตร [137]

การเคลื่อนไหวและการจัดการ

AI ถูกใช้อย่างมากในวิทยาการหุ่นยนต์ [138]แขนกลหุ่นยนต์ขั้นสูงและหุ่นยนต์อุตสาหกรรมอื่น ๆ ที่ใช้กันอย่างแพร่หลายในโรงงานสมัยใหม่สามารถเรียนรู้จากประสบการณ์เกี่ยวกับวิธีการเคลื่อนไหวอย่างมีประสิทธิภาพแม้ว่าจะมีแรงเสียดทานและการลื่นไถลของเกียร์ก็ตาม [139]หุ่นยนต์เคลื่อนที่สมัยใหม่เมื่อได้รับสภาพแวดล้อมที่เล็กนิ่งและมองเห็นได้สามารถระบุตำแหน่งและจัดทำแผนที่สภาพแวดล้อมได้อย่างง่ายดาย อย่างไรก็ตามสภาพแวดล้อมแบบไดนามิกเช่น (ในการส่องกล้อง ) ภายในร่างกายที่หายใจของผู้ป่วยก่อให้เกิดความท้าทายมากขึ้น การวางแผนการเคลื่อนไหวเป็นกระบวนการในการแบ่งงานการเคลื่อนไหวออกเป็น "แบบดั้งเดิม" เช่นการเคลื่อนไหวร่วมกันของแต่ละบุคคล การเคลื่อนไหวดังกล่าวมักเกี่ยวข้องกับการเคลื่อนไหวที่สอดคล้องกันซึ่งเป็นกระบวนการที่การเคลื่อนไหวจำเป็นต้องรักษาการสัมผัสทางกายภาพกับวัตถุ [140] [141] [142] ความขัดแย้งของ Moravecกล่าวโดยทั่วไปว่าความสามารถในการเซ็นเซอร์ระดับต่ำที่มนุษย์ยอมรับนั้นเป็นสิ่งที่ตรงกันข้ามและยากที่จะตั้งโปรแกรมให้เป็นหุ่นยนต์ ความขัดแย้งนี้ได้รับการตั้งชื่อตามHans Moravecซึ่งระบุไว้ในปี 1988 ว่า "มันค่อนข้างง่ายที่จะทำให้คอมพิวเตอร์แสดงประสิทธิภาพระดับผู้ใหญ่ในการทดสอบสติปัญญาหรือการเล่นหมากฮอสและยากหรือเป็นไปไม่ได้ที่จะให้ทักษะของเด็กหนึ่งขวบเมื่อมัน มาที่การรับรู้และความคล่องตัว ". [143] [144]นี่คือสาเหตุที่แตกต่างจากหมากฮอสความชำนาญทางกายภาพเป็นเป้าหมายโดยตรงของการคัดเลือกโดยธรรมชาติเป็นเวลาหลายล้านปี [145]

ความฉลาดทางสังคม

Kismetหุ่นยนต์ที่มีทักษะพื้นฐานทางสังคม [146]

ความขัดแย้งของ Moravec สามารถขยายไปสู่ความฉลาดทางสังคมได้หลายรูปแบบ [147] [148]การประสานงานแบบหลายตัวแทนของยานยนต์อิสระยังคงเป็นปัญหาที่ยากลำบาก [149] ที่ส่งผลต่อการใช้คอมพิวเตอร์เป็นร่มสหวิทยาการว่าระบบประกอบด้วยซึ่งตระหนักตีความกระบวนการหรือมนุษย์จำลองผลกระทบต่อ [150] [151] [152]ความสำเร็จระดับปานกลางที่เกี่ยวข้องกับการประมวลผลเชิงอารมณ์ ได้แก่การวิเคราะห์ความรู้สึกที่เป็นข้อความและเมื่อเร็ว ๆ นี้การวิเคราะห์ผลกระทบต่อเนื่องหลายรูปแบบ (ดูการวิเคราะห์ความรู้สึกหลายรูปแบบ ) โดย AI จะจำแนกประเภทของผลกระทบที่แสดงโดยเรื่องที่บันทึกวิดีโอ [153]

ในระยะยาวทักษะทางสังคมและความเข้าใจในอารมณ์ของมนุษย์และทฤษฎีเกมจะมีประโยชน์ต่อตัวแทนทางสังคม ความสามารถในการทำนายการกระทำของผู้อื่นโดยการเข้าใจแรงจูงใจและสภาวะทางอารมณ์จะทำให้ตัวแทนตัดสินใจได้ดีขึ้น บางระบบคอมพิวเตอร์อารมณ์ของมนุษย์เลียนแบบและการแสดงออกให้ปรากฏความไวต่อการเปลี่ยนแปลงทางอารมณ์ของการปฏิสัมพันธ์ของมนุษย์หรือมิฉะนั้นความสะดวกในการสื่อสารระหว่างมนุษย์กับคอมพิวเตอร์ [154]ในทำนองเดียวกันผู้ช่วยเสมือนบางคนได้รับการตั้งโปรแกรมให้พูดในเชิงสนทนาหรือแม้แต่ล้อเล่นอย่างมีอารมณ์ขัน สิ่งนี้มีแนวโน้มที่จะทำให้ผู้ใช้ไร้เดียงสามีความคิดที่ไม่สมจริงว่าตัวแทนคอมพิวเตอร์ที่มีอยู่นั้นมีความชาญฉลาดเพียงใด [155]

ปัญญาทั่วไป

ในอดีตโครงการต่างๆเช่นฐานความรู้ Cyc (1984–) และการริเริ่มระบบคอมพิวเตอร์ยุคที่ 5 ของญี่ปุ่น(1982–1992) พยายามที่จะครอบคลุมความรู้ความเข้าใจของมนุษย์ในวงกว้าง โครงการแรก ๆ เหล่านี้ล้มเหลวในการหลีกหนีข้อ จำกัด ของแบบจำลองตรรกะเชิงสัญลักษณ์ที่ไม่ใช่เชิงปริมาณและเมื่อมองย้อนกลับไปก็ประเมินความยากลำบากของ AI ข้ามโดเมนต่ำไปมาก ปัจจุบันนักวิจัย AI ในปัจจุบันส่วนใหญ่ทำงานแทนแอปพลิเคชัน "AI แบบแคบ" ที่สามารถเชื่อมต่อได้ (เช่นการวินิจฉัยทางการแพทย์หรือการนำทางรถยนต์) [156]นักวิจัยหลายคนคาดการณ์ว่าการทำงานแบบ "AI ที่แคบ" ในแต่ละโดเมนจะถูกรวมเข้ากับเครื่องจักรที่มีปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งรวมเอาทักษะแคบ ๆ ส่วนใหญ่ที่กล่าวถึงในบทความนี้เข้าด้วยกันและในบางจุดอาจเกินความสามารถของมนุษย์ด้วยซ้ำ ในพื้นที่เหล่านี้ส่วนใหญ่หรือทั้งหมด [26] [157]ความก้าวหน้ามากมายมีความสำคัญโดยทั่วไปข้ามโดเมน ตัวอย่างหนึ่งที่รายละเอียดสูงคือDeepMindในยุค 2010 พัฒนา "ทั่วไปปัญญาประดิษฐ์" ที่สามารถเรียนรู้จำนวนมากที่มีความหลากหลายAtariเกมบนของตัวเองและต่อมาได้รับการพัฒนาที่แตกต่างของระบบที่ประสบความสำเร็จในการเรียนรู้ตามลำดับ [158] [159] [160]นอกเหนือจากการถ่ายทอดการเรียนรู้แล้ว[161]นวัตกรรม AGI เชิงสมมุติอาจรวมถึงการพัฒนาสถาปัตยกรรมสะท้อนแสงที่สามารถมีส่วนร่วมในการตัดสินใจเชิงทฤษฎีและการหาวิธี "รวบรวม" ฐานความรู้ที่ครอบคลุมจาก ทั้งที่ไม่มีโครงสร้างเว็บ [162]บางคนโต้แย้งว่าแนวคิดบางอย่าง (ปัจจุบันยังไม่ได้ค้นพบ) ตรงไปตรงมา แต่ยากทางคณิตศาสตร์ "อัลกอริทึมหลัก" อาจนำไปสู่ ​​AGI [163]ในที่สุดแนวทาง "ฉุกเฉิน" เพียงไม่กี่วิธีที่จะจำลองความฉลาดของมนุษย์อย่างใกล้ชิดมากและเชื่อว่าลักษณะของมนุษย์เช่นสมองเทียมหรือพัฒนาการของเด็กจำลองสักวันหนึ่งอาจถึงจุดวิกฤตที่ปัญญาทั่วไปปรากฏขึ้น [164] [165]

ปัญหาหลายอย่างในบทความนี้อาจต้องใช้หน่วยสืบราชการลับทั่วไปหากเครื่องจักรสามารถแก้ปัญหาได้เช่นเดียวกับที่ผู้คนทำ ตัวอย่างเช่นแม้แต่งานที่ตรงไปตรงมาเฉพาะเจาะจงเช่นการแปลด้วยเครื่องต้องการให้เครื่องอ่านและเขียนในทั้งสองภาษา ( NLP ) ทำตามข้อโต้แย้ง ( เหตุผล ) ของผู้เขียนรู้ว่ากำลังพูดถึงอะไร ( ความรู้ ) และทำซ้ำต้นฉบับของผู้เขียนอย่างซื่อสัตย์ เจตนา ( ความฉลาดทางสังคม ) ปัญหาเช่นการแปลด้วยเครื่องจะถือว่าเป็น " AI-complete " เนื่องจากปัญหาเหล่านี้ทั้งหมดต้องได้รับการแก้ไขพร้อมกันเพื่อให้ได้ประสิทธิภาพของเครื่องในระดับมนุษย์

ไม่มีทฤษฎีหรือกระบวนทัศน์การรวมที่เป็นหนึ่งเดียวที่เป็นแนวทางในการวิจัย AI นักวิจัยไม่เห็นด้วยในหลายประเด็น [f]คำถามที่มีมายาวนานที่สุดสองสามข้อที่ยังไม่มีคำตอบคือปัญญาประดิษฐ์ควรจำลองความฉลาดทางธรรมชาติโดยการศึกษาจิตวิทยาหรือประสาทชีววิทยาหรือไม่? หรือชีววิทยาของมนุษย์ไม่เกี่ยวข้องกับการวิจัย AI เนื่องจากชีววิทยาของนกเป็นวิศวกรรมการบิน ? [23]สามารถอธิบายพฤติกรรมที่ชาญฉลาดโดยใช้หลักการที่เรียบง่ายและสง่างาม (เช่นตรรกะหรือการเพิ่มประสิทธิภาพ ) ได้หรือไม่? หรือจำเป็นต้องแก้ปัญหาที่ไม่เกี่ยวข้องจำนวนมาก? [24]

ไซเบอร์เนติกส์และการจำลองสมอง

ในปี 1940 และปี 1950 จำนวนของนักวิจัยสำรวจการเชื่อมต่อระหว่างชีววิทยา , ทฤษฎีสารสนเทศและไซเบอร์เนติกส์ บางส่วนของพวกเครื่องที่ใช้เครือข่ายอิเล็กทรอนิกส์ที่จะแสดงปัญญาพื้นฐานเช่นสร้างดับบลิวสีเทาวอลเตอร์ 's เต่าและจอห์นส์ฮอปกินส์สัตว์ นักวิจัยเหล่านี้หลายคนรวมตัวกันเพื่อการประชุมของ Teleological Society ที่Princeton UniversityและRatio Clubในอังกฤษ [167]ในปีพ. ศ. 2503 แนวทางนี้ส่วนใหญ่ถูกละทิ้งแม้ว่าองค์ประกอบต่างๆจะได้รับการฟื้นฟูในช่วงทศวรรษที่ 1980

สัญลักษณ์

เมื่อสามารถเข้าถึงคอมพิวเตอร์ดิจิทัลได้ในช่วงกลางทศวรรษ 1950 การวิจัยของ AI จึงเริ่มสำรวจความเป็นไปได้ที่สติปัญญาของมนุษย์จะลดลงเป็นการจัดการกับสัญลักษณ์ การวิจัยเป็นศูนย์กลางในสามสถาบัน: มหาวิทยาลัย Carnegie Mellon , Stanfordและเอ็มไอทีและตามที่อธิบายไว้ด้านล่างแต่ละคนพัฒนารูปแบบของตัวเองของการวิจัย John Haugelandตั้งชื่อแนวทางเชิงสัญลักษณ์เหล่านี้ให้กับ AI ว่า "AI แบบเก่าที่ดี" หรือ " GOFAI " [168]ในช่วงทศวรรษ 1960 แนวทางเชิงสัญลักษณ์ประสบความสำเร็จอย่างมากในการจำลอง "การคิด" ระดับสูงในโปรแกรมสาธิตขนาดเล็ก แนวทางที่อาศัยไซเบอร์เนติกส์หรือเครือข่ายประสาทเทียมถูกละทิ้งหรือผลักดันให้อยู่เบื้องหลัง [g]นักวิจัยในทศวรรษ 1960 และ 1970 เชื่อว่าแนวทางเชิงสัญลักษณ์ในที่สุดจะประสบความสำเร็จในการสร้างเครื่องจักรที่มีปัญญาประดิษฐ์ทั่วไปและถือว่านี่คือเป้าหมายของสาขาของพวกเขา

การจำลองความรู้ความเข้าใจ

นักเศรษฐศาสตร์เฮอร์เบิร์ไซมอนและอัลเลน Newellศึกษาทักษะการแก้ปัญหาของมนุษย์และความพยายามที่จะทำพิธีพวกเขาและงานของพวกเขาวางรากฐานของเขตของปัญญาประดิษฐ์เช่นเดียวกับที่วิทยาศาสตร์พุทธิปัญญา , การดำเนินงานวิจัยและวิทยาศาสตร์การจัดการ ทีมวิจัยของพวกเขาใช้ผลการทดลองทางจิตวิทยาเพื่อพัฒนาโปรแกรมที่จำลองเทคนิคที่ผู้คนใช้ในการแก้ปัญหา ประเพณีนี้มีศูนย์กลางอยู่ที่มหาวิทยาลัยคาร์เนกีเมลลอนในที่สุดก็จะสิ้นสุดลงในการพัฒนาสถาปัตยกรรมทะยานในช่วงกลางทศวรรษที่ 1980 [169] [170]

ตามตรรกะ

ต่างจาก Simon และ Newell จอห์นแม็คคาร์ธีรู้สึกว่าเครื่องจักรไม่จำเป็นต้องจำลองความคิดของมนุษย์ แต่ควรพยายามหาสาระสำคัญของการให้เหตุผลเชิงนามธรรมและการแก้ปัญหาแทนโดยไม่คำนึงว่าผู้คนจะใช้อัลกอริทึมเดียวกันหรือไม่ [23]ในห้องปฏิบัติการของเขาที่สแตนฟอ ( เรือ ) เน้นการใช้อย่างเป็นทางการตรรกะในการแก้ปัญหาที่หลากหลายของปัญหารวมถึงการแทนความรู้ , การวางแผนและการเรียนรู้ [171]ลอจิกยังเป็นจุดสำคัญของการทำงานที่ที่มหาวิทยาลัยเอดินเบอระและที่อื่น ๆ ในยุโรปซึ่งนำไปสู่การพัฒนาของภาษาการเขียนโปรแกรมเปิดฉากและวิทยาศาสตร์ของโปรแกรมตรรกะ [172]

ต่อต้านตรรกะหรือสกปรก

นักวิจัยจากMIT (เช่นMarvin MinskyและSeymour Papert ) [173]พบว่าการแก้ปัญหาที่ยากลำบากในการมองเห็นและการประมวลผลภาษาที่เป็นธรรมชาตินั้นจำเป็นต้องใช้วิธีแก้ปัญหาแบบเฉพาะกิจ - พวกเขาแย้งว่าไม่มีหลักการง่ายๆ (เช่นตรรกะ ) ที่จะจับทุกแง่มุมของความฉลาด พฤติกรรม. โรเจอร์แชงก์อธิบายของพวกเขา "ต่อต้านตรรกะ" วิธีการเป็น " ยู่ยี่ " (เมื่อเทียบกับ " เรียบร้อยกระบวนทัศน์" ที่มหาวิทยาลัยเชียงใหม่และ Stanford) [24] ฐานความรู้ทั่วไป (เช่นCycของDoug Lenat ) เป็นตัวอย่างของ AI ที่ "สกปรก" เนื่องจากต้องสร้างขึ้นด้วยมือแนวคิดที่ซับซ้อนทีละขั้นตอน [174]

อิงความรู้

เมื่อคอมพิวเตอร์ที่มีความทรงจำขนาดใหญ่เริ่มใช้งานได้ในราวปี 1970 นักวิจัยจากทั้งสามประเพณีเริ่มสร้างความรู้ให้กับแอปพลิเคชัน AI [175] "การปฏิวัติความรู้" นี้นำไปสู่การพัฒนาและการปรับใช้ระบบผู้เชี่ยวชาญ (แนะนำโดยEdward Feigenbaum ) ซึ่งเป็นซอฟต์แวร์ AI รูปแบบแรกที่ประสบความสำเร็จอย่างแท้จริง [52]องค์ประกอบหลักของสถาปัตยกรรมระบบสำหรับระบบผู้เชี่ยวชาญทั้งหมดคือฐานความรู้ซึ่งจัดเก็บข้อเท็จจริงและกฎเกณฑ์ต่างๆที่แสดงให้เห็นถึง AI [176]การปฏิวัติความรู้ยังได้รับแรงผลักดันจากการตระหนักว่าความรู้จำนวนมหาศาลจะต้องใช้โดยแอพพลิเคชั่น AI ง่ายๆจำนวนมาก

สัญลักษณ์ย่อย

โดยปี 1980 ความคืบหน้าในสัญลักษณ์ AI ดูเหมือนจะแผงลอยและหลายคนเชื่อว่าระบบสัญลักษณ์จะไม่สามารถที่จะเลียนแบบกระบวนการทั้งหมดของการรับรู้ของมนุษย์โดยเฉพาะอย่างยิ่งการรับรู้ , หุ่นยนต์, การเรียนรู้และการจดจำรูปแบบ นักวิจัยจำนวนหนึ่งเริ่มมองหาแนวทาง "สัญลักษณ์ย่อย" สำหรับปัญหา AI ที่เฉพาะเจาะจง [25]วิธีการเชิงสัญลักษณ์ย่อยจัดการเพื่อเข้าถึงหน่วยสืบราชการลับโดยไม่มีการนำเสนอความรู้ที่เฉพาะเจาะจง

ปัญญาที่เป็นตัวเป็นตน

ซึ่งรวมถึงการเป็นตัวเป็นตน , อยู่ , พฤติกรรมตามและNouvelle AI นักวิจัยจากสาขาหุ่นยนต์ที่เกี่ยวข้องเช่นRodney Brooksปฏิเสธ AI เชิงสัญลักษณ์และมุ่งเน้นไปที่ปัญหาพื้นฐานทางวิศวกรรมที่จะทำให้หุ่นยนต์เคลื่อนที่และอยู่รอดได้ [177]งานของพวกเขาได้ฟื้นฟูมุมมองที่ไม่ใช่สัญลักษณ์ของนักวิจัยไซเบอร์เนติกส์รุ่นแรก ๆของทศวรรษ 1950 และนำทฤษฎีการควบคุมมาใช้ใน AI อีกครั้ง สิ่งนี้เกิดขึ้นพร้อมกับการพัฒนาวิทยานิพนธ์ด้านจิตใจที่เป็นตัวเป็นตนในสาขาที่เกี่ยวข้องของวิทยาศาสตร์การรับรู้ : ความคิดที่ว่าแง่มุมของร่างกาย (เช่นการเคลื่อนไหวการรับรู้และการมองเห็น) เป็นสิ่งจำเป็นสำหรับสติปัญญาที่สูงขึ้น

ภายในหุ่นยนต์พัฒนาการจะมีการใช้แนวทางการเรียนรู้เพื่อพัฒนาการเพื่อให้หุ่นยนต์สามารถสะสมทักษะใหม่ ๆ ผ่านการสำรวจตนเองโดยอิสระปฏิสัมพันธ์ทางสังคมกับครูที่เป็นมนุษย์และการใช้กลไกการนำทาง (การเรียนรู้อย่างกระตือรือร้นการเจริญเติบโตการทำงานร่วมกันของมอเตอร์ ฯลฯ ) [178] [179] [180] [181]

ความฉลาดในการคำนวณและการประมวลผลแบบอ่อน

ความสนใจในโครงข่ายประสาทเทียมและ " การเชื่อมต่อ " ได้รับการฟื้นฟูโดยDavid Rumelhartและคนอื่น ๆ ในช่วงกลางทศวรรษที่ 1980 [182] เครือข่ายประสาทเทียมเป็นตัวอย่างของการประมวลผลแบบอ่อนซึ่งเป็นวิธีการแก้ปัญหาที่ไม่สามารถแก้ไขได้ด้วยความแน่นอนเชิงตรรกะที่สมบูรณ์และวิธีการแก้ปัญหาโดยประมาณมักจะเพียงพอ อื่น ๆคอมพิวเตอร์นุ่มวิธีการ AI รวมถึงระบบเลือน , ทฤษฎีระบบสีเทา , การคำนวณวิวัฒนาการและเครื่องมือทางสถิติจำนวนมาก การประยุกต์ใช้คอมพิวเตอร์ซอฟท์เอไอที่มีการศึกษาโดยรวมวินัยเกิดขึ้นใหม่ของหน่วยสืบราชการลับการคำนวณ [183]

ทางสถิติ

GOFAIแบบดั้งเดิมส่วนใหญ่จมอยู่กับแพตช์เฉพาะกิจไปจนถึงการคำนวณเชิงสัญลักษณ์ที่ทำงานกับโมเดลของเล่นของตัวเอง แต่ล้มเหลวในการสรุปผลในโลกแห่งความเป็นจริง อย่างไรก็ตามในช่วงทศวรรษ 1990 นักวิจัย AI ได้นำเครื่องมือทางคณิตศาสตร์ที่ซับซ้อนมาใช้เช่นแบบจำลอง Markov (HMM) ที่ซ่อนอยู่ทฤษฎีข้อมูลและทฤษฎีการตัดสินใจแบบเบย์เชิงบรรทัดฐานเพื่อเปรียบเทียบหรือรวมสถาปัตยกรรมที่แข่งขันกันเข้าด้วยกัน ภาษาทางคณิตศาสตร์ที่ใช้ร่วมกันอนุญาตให้มีการทำงานร่วมกันในระดับสูงกับสาขาที่เป็นที่ยอมรับมากขึ้น (เช่นคณิตศาสตร์เศรษฐศาสตร์หรือการวิจัยการดำเนินงาน ) [h]เมื่อเปรียบเทียบกับ GOFAI เทคนิค "การเรียนรู้ทางสถิติ" แบบใหม่เช่น HMM และเครือข่ายประสาทเทียมได้รับความแม่นยำในระดับที่สูงขึ้นในโดเมนที่ใช้งานได้จริงหลายอย่างเช่นการขุดข้อมูลโดยไม่จำเป็นต้องได้รับความเข้าใจเชิงความหมายเกี่ยวกับชุดข้อมูล ความสำเร็จที่เพิ่มขึ้นจากข้อมูลในโลกแห่งความเป็นจริงนำไปสู่การเน้นที่เพิ่มขึ้นในการเปรียบเทียบแนวทางต่างๆกับข้อมูลการทดสอบที่ใช้ร่วมกันเพื่อดูว่าแนวทางใดทำงานได้ดีที่สุดในบริบทที่กว้างกว่าที่จัดทำโดยโมเดลของเล่นที่แปลก การวิจัย AI ได้กลายเป็นมากขึ้นทางวิทยาศาสตร์ ปัจจุบันผลลัพธ์ของการทดลองมักจะวัดผลได้อย่างเข้มงวดและบางครั้งก็สามารถทำซ้ำได้ (ด้วยความยากลำบาก) [54] [184]เทคนิคการเรียนรู้ทางสถิติที่แตกต่างกันมีข้อ จำกัด ที่แตกต่างกัน ตัวอย่างเช่น HMM พื้นฐานไม่สามารถจำลองการผสมผสานภาษาธรรมชาติที่เป็นไปได้ไม่สิ้นสุด [185]นักวิจารณ์สังเกตว่าการเปลี่ยนจาก GOFAI เป็นการเรียนรู้ทางสถิติมักเป็นการเปลี่ยนจากAI ที่อธิบายได้ ในการวิจัยของ AGI นักวิชาการบางคนเตือนไม่ให้พึ่งพาการเรียนรู้ทางสถิติมากเกินไปและยืนยันว่าการวิจัยอย่างต่อเนื่องเกี่ยวกับ GOFAI จะยังคงมีความจำเป็นเพื่อให้บรรลุความฉลาดทั่วไป [186] [187]

การบูรณาการแนวทาง

กระบวนทัศน์ตัวแทนอัจฉริยะ
ตัวแทนชาญฉลาดเป็นระบบที่รับรู้สภาพแวดล้อมและใช้เวลาดำเนินการที่เพิ่มโอกาสของการประสบความสำเร็จ ตัวแทนอัจฉริยะที่ง่ายที่สุดคือโปรแกรมที่แก้ปัญหาเฉพาะ ตัวแทนที่ซับซ้อนมากขึ้น ได้แก่ มนุษย์และองค์กรของมนุษย์ (เช่น บริษัท ) กระบวนทัศน์ช่วยให้นักวิจัยสามารถเปรียบเทียบโดยตรงหรือรวมวิธีการต่างๆเข้ากับปัญหาที่แยกได้โดยการถามว่าตัวแทนใดดีที่สุดในการเพิ่ม "ฟังก์ชันเป้าหมาย" ที่กำหนด ตัวแทนที่แก้ไขปัญหาเฉพาะสามารถใช้แนวทางใดก็ได้ที่ได้ผล - ตัวแทนบางตัวเป็นสัญลักษณ์และตรรกะบางส่วนเป็นเครือข่ายประสาทเทียมที่เป็นสัญลักษณ์ย่อย และคนอื่น ๆ อาจใช้แนวทางใหม่ กระบวนทัศน์ยังช่วยให้นักวิจัยมีภาษากลางในการสื่อสารกับสาขาอื่น ๆ เช่น ทฤษฎีการตัดสินใจและเศรษฐศาสตร์ซึ่งใช้แนวคิดของตัวแทนนามธรรมด้วย การสร้างตัวแทนที่สมบูรณ์ต้องใช้นักวิจัยในการแก้ไขปัญหาที่เป็นจริงของการรวม ตัวอย่างเช่นเนื่องจากระบบประสาทสัมผัสให้ข้อมูลที่ไม่แน่นอนเกี่ยวกับสิ่งแวดล้อมระบบการวางแผนจึงต้องสามารถทำงานได้เมื่อมีความไม่แน่นอน กระบวนทัศน์ตัวแทนอัจฉริยะได้รับการยอมรับอย่างกว้างขวางในช่วงปี 1990 [188]
สถาปัตยกรรมตัวแทนและ สถาปัตยกรรมทางปัญญา
นักวิจัยได้รับการออกแบบระบบการสร้างระบบอัจฉริยะออกมาจากการมีปฏิสัมพันธ์ ตัวแทนอัจฉริยะใน หลายระบบตัวแทน [189]ระบบการควบคุมลำดับชั้นให้สะพานเชื่อมระหว่างย่อยสัญลักษณ์ AI ที่ต่ำสุดที่ระดับปฏิกิริยาและแบบดั้งเดิมสัญลักษณ์ AI ในระดับสูงสุดที่ จำกัด ของเวลาที่ผ่อนคลายอนุญาตให้มีการวางแผนและการสร้างแบบจำลองโลก [190]สถาปัตยกรรมทางปัญญาบางอย่างถูกสร้างขึ้นเองเพื่อแก้ปัญหาแคบ ๆ อื่น ๆ เช่น Soarได้รับการออกแบบมาเพื่อเลียนแบบความรู้ความเข้าใจของมนุษย์และเพื่อให้ข้อมูลเชิงลึกเกี่ยวกับสติปัญญาทั่วไป ส่วนขยายที่ทันสมัยของ Soar เป็น ระบบอัจฉริยะแบบไฮบริดที่มีส่วนประกอบทั้งสัญลักษณ์และสัญลักษณ์ย่อย [97] [191]

AI เกี่ยวข้องกับงานทางปัญญาใด ๆ [192]เทคนิคปัญญาประดิษฐ์สมัยใหม่แพร่หลาย[193]และมีจำนวนมากเกินไปที่จะระบุไว้ที่นี่ บ่อยครั้งเมื่อเทคนิคไปสู่การใช้งานหลักก็ไม่ถือว่าเป็นปัญญาประดิษฐ์อีกต่อไป ปรากฏการณ์นี้อธิบายว่าผล AI [194]

ตัวอย่างที่มีรายละเอียดสูงของ AI ได้แก่ ยานพาหนะที่เป็นอิสระ (เช่นโดรนและรถยนต์ที่ขับเคลื่อนด้วยตัวเอง ) การวินิจฉัยทางการแพทย์การสร้างงานศิลปะ (เช่นบทกวี) การพิสูจน์ทฤษฎีทางคณิตศาสตร์การเล่นเกม (เช่น Chess หรือ Go) เครื่องมือค้นหา (เช่นGoogle Search ), ผู้ช่วยออนไลน์ (เช่นSiri ), การจดจำรูปภาพในภาพถ่าย, การกรองสแปม, การคาดการณ์ความล่าช้าของเที่ยวบิน, [195]การคาดคะเนการตัดสินของศาล, [196]การกำหนดเป้าหมายโฆษณาออนไลน์, [192] [197] [198]และพลังงาน พื้นที่เก็บข้อมูล[199]

ด้วยเว็บไซต์โซเชียลมีเดียที่แซงหน้าทีวีเป็นแหล่งข่าวสำหรับคนรุ่นใหม่และองค์กรข่าวต่างหันมาพึ่งพาแพลตฟอร์มโซเชียลมีเดียมากขึ้นในการสร้างการเผยแพร่[200]ผู้เผยแพร่โฆษณารายใหญ่ใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อโพสต์เรื่องราวได้อย่างมีประสิทธิภาพมากขึ้นและสร้างปริมาณ การจราจร. [201]

AI ยังสามารถผลิตDeepfakesซึ่งเป็นเทคโนโลยีการปรับเปลี่ยนเนื้อหา ZDNet รายงานว่า "นำเสนอสิ่งที่ไม่ได้เกิดขึ้นจริง" แม้ว่าชาวอเมริกัน 88% เชื่อว่า Deepfakes สามารถก่อให้เกิดอันตรายมากกว่าผลดี แต่มีเพียง 47% เท่านั้นที่เชื่อว่าสามารถกำหนดเป้าหมายได้ ปีแห่งการเลือกตั้งที่เฟื่องฟูยังเปิดให้มีการอภิปรายสาธารณะเกี่ยวกับการคุกคามวิดีโอของสื่อนักการเมืองที่แอบอ้าง [202]

มีคำถามเชิงปรัชญาสามข้อที่เกี่ยวข้องกับ AI: [203]

  1. ไม่ว่าปัญญาประดิษฐ์ทั่วไปเป็นไปได้; ไม่ว่าเครื่องจักรจะสามารถแก้ปัญหาใด ๆ ที่มนุษย์สามารถแก้ไขได้โดยใช้สติปัญญาหรือมีข้อ จำกัด ที่ยากสำหรับสิ่งที่เครื่องจักรสามารถทำได้
  2. เครื่องจักรอัจฉริยะเป็นอันตรายหรือไม่ มนุษย์จะมั่นใจได้อย่างไรว่าเครื่องจักรทำงานอย่างมีจริยธรรมและถูกใช้อย่างมีจริยธรรม
  3. ไม่ว่าจะเป็นเครื่องที่สามารถมีใจ , สติและจิตในความรู้สึกเดียวกันกับที่มนุษย์ทำ; หากเครื่องจักรสามารถมีความรู้สึกได้และด้วยเหตุนี้จึงสมควรได้รับสิทธิ์บางประการและหากเครื่องจงใจก่อให้เกิดอันตราย

ขีด จำกัด ของปัญญาประดิษฐ์ทั่วไป

“ อนุสัญญาสุภาพ” ของอลันทัวริง
เราไม่จำเป็นต้องตัดสินใจว่าเครื่องจักรสามารถ "คิด"; เราต้องการเพียงแค่ตัดสินใจว่าเครื่องจักรสามารถทำงานได้อย่างชาญฉลาดเหมือนมนุษย์หรือไม่ วิธีการแก้ปัญหาทางปรัชญาที่เกี่ยวข้องกับปัญญาประดิษฐ์นี้เป็นพื้นฐานของ การทดสอบทัวริง [204]
ข้อเสนอดาร์ทเมาท์
"ทุกแง่มุมของการเรียนรู้หรือคุณลักษณะอื่น ๆ ของความฉลาดสามารถอธิบายได้อย่างแม่นยำจนสามารถสร้างเครื่องจักรเพื่อจำลองได้" การคาดเดานี้ถูกพิมพ์ในข้อเสนอสำหรับการประชุมดาร์ทเมาท์ปี 2499 [205]
สมมติฐานระบบสัญลักษณ์ทางกายภาพของนิวเวลล์และไซมอน
"ระบบสัญลักษณ์ทางกายภาพมีวิธีการที่จำเป็นและเพียงพอสำหรับการกระทำอัจฉริยะทั่วไป" Newell และ Simon ให้เหตุผลว่าหน่วยสืบราชการลับประกอบด้วยการดำเนินการอย่างเป็นทางการกับสัญลักษณ์ [206]ฮิวเบิร์ตเดรย์ฟัสให้เหตุผลว่าในทางตรงกันข้ามความเชี่ยวชาญของมนุษย์ขึ้นอยู่กับสัญชาตญาณโดยไม่รู้ตัวมากกว่าการปรุงแต่งสัญลักษณ์ที่มีสติและการมี "ความรู้สึก" ต่อสถานการณ์แทนที่จะเป็นความรู้เชิงสัญลักษณ์อย่างชัดเจน (ดูการ วิจารณ์ AI ของ Dreyfus ) [i] [208]
ข้อโต้แย้งของGödelian
เกอเดลเอง [209]จอห์นลูคัส (ในปี 2504) และ โรเจอร์เพนโรส (ในการโต้แย้งที่มีรายละเอียดมากขึ้นตั้งแต่ปี พ.ศ. 2532 เป็นต้นไป) ได้โต้แย้งทางเทคนิคอย่างมากว่านักคณิตศาสตร์ที่เป็นมนุษย์สามารถมองเห็นความจริงของ "งบGödel" ของตนเองได้อย่างสม่ำเสมอดังนั้นจึงมีความสามารถในการคำนวณที่เหนือกว่า ของเครื่องจักรทัวริงเชิงกล [210]อย่างไรก็ตามบางคนไม่เห็นด้วยกับ "ข้อโต้แย้งของGödelian" [211] [212] [213]
การโต้แย้งของสมองเทียม
ข้อโต้แย้งที่ยืนยันว่าสมองสามารถจำลองได้ด้วยเครื่องจักรและเนื่องจากสมองแสดงความฉลาดสมองจำลองเหล่านี้จึงต้องแสดงความฉลาดด้วยเช่นกันเครื่องจักรสามารถฉลาดได้ Hans Moravec , Ray Kurzweilและคนอื่น ๆ ได้โต้แย้งว่าเป็นไปได้ทางเทคโนโลยีที่จะคัดลอกสมองลงในฮาร์ดแวร์และซอฟต์แวร์โดยตรงและการจำลองดังกล่าวจะเหมือนกับต้นฉบับ [164]
ผล AI
สมมติฐานที่อ้างว่าเครื่องจักรมี ความฉลาดอยู่แล้วแต่ผู้สังเกตการณ์ไม่สามารถจดจำได้ ตัวอย่างเช่นเมื่อ Deep Blueเอาชนะ Garry Kasparovด้วยการเล่นหมากรุกเครื่องสามารถอธิบายได้ว่าเป็นการแสดงความฉลาด อย่างไรก็ตามผู้เข้าชมมักจะลดพฤติกรรมของโปรแกรมปัญญาประดิษฐ์โดยการโต้เถียงว่ามันไม่ใช่ปัญญา "ที่แท้จริง" โดยที่ปัญญา "ของจริง" มีผลบังคับใช้ว่าสิ่งที่เครื่องแสดงพฤติกรรมไม่สามารถทำได้

เครื่องจักรที่มีจริยธรรม

เครื่องจักรที่มีความชาญฉลาดมีศักยภาพในการใช้สติปัญญาเพื่อป้องกันอันตรายและลดความเสี่ยงให้เหลือน้อยที่สุด พวกเขาอาจมีความสามารถในการใช้เหตุผลทางจริยธรรมเพื่อเลือกการกระทำของตนในโลกได้ดีขึ้น ด้วยเหตุนี้จึงมีความจำเป็นในการกำหนดนโยบายเพื่อกำหนดนโยบายและควบคุมปัญญาประดิษฐ์และหุ่นยนต์ [214]การวิจัยในพื้นที่นี้รวมถึงจริยธรรมเครื่อง , ตัวแทนศีลธรรมเทียม , มิตร AIและอภิปรายต่อการสร้างสิทธิมนุษยชนกรอบยังอยู่ในการเจรจา [215]

Joseph WeizenbaumในสาขาComputer Power and Human Reasonเขียนว่าโดยคำจำกัดความแอปพลิเคชัน AI ไม่สามารถจำลองการเอาใจใส่ของมนุษย์แท้ได้สำเร็จและการใช้เทคโนโลยี AI ในสาขาต่างๆเช่นการบริการลูกค้าหรือจิตบำบัด[j]นั้นเข้าใจผิดอย่างลึกซึ้ง Weizenbaum ยังรู้สึกกังวลว่านักวิจัย AI (และนักปรัชญาบางคน) เต็มใจที่จะมองว่าจิตใจมนุษย์เป็นเพียงโปรแกรมคอมพิวเตอร์ (ตำแหน่งปัจจุบันเรียกว่าcomputationalism ) สำหรับ Weizenbaum ประเด็นเหล่านี้ชี้ให้เห็นว่าการวิจัย AI ลดคุณค่าชีวิตมนุษย์ [217]

ตัวแทนคุณธรรมเทียม

เวนเดลล์วอลลัคนำแนวคิดของตัวแทนศีลธรรมเทียม (AMA) มาใช้ในหนังสือของเขาMoral Machines [218]สำหรับ Wallach แล้ว AMAs ได้กลายเป็นส่วนหนึ่งของแนวการวิจัยของปัญญาประดิษฐ์ตามคำแนะนำของคำถามกลางสองข้อซึ่งเขาระบุว่า "มนุษยชาติต้องการหรือไม่ คอมพิวเตอร์ทำการตัดสินใจทางศีลธรรม " [219]และ" บอท (Ro) สามารถมีคุณธรรมได้จริง ๆ " [220]สำหรับ Wallach คำถามไม่ได้มุ่งเน้นไปที่ประเด็นที่ว่าเครื่องจักรสามารถแสดงให้เห็นถึงความเท่าเทียมกันของพฤติกรรมทางศีลธรรมซึ่งแตกต่างจากข้อ จำกัดที่สังคมอาจวางไว้ในการพัฒนา AMAs [221]

จรรยาบรรณของเครื่องจักร

สาขาจริยธรรมของเครื่องจักรเกี่ยวข้องกับการให้หลักการทางจริยธรรมของเครื่องจักรหรือขั้นตอนในการค้นหาวิธีการแก้ไขประเด็นขัดแย้งทางจริยธรรมที่พวกเขาอาจพบทำให้พวกเขาสามารถทำงานได้อย่างมีความรับผิดชอบทางจริยธรรมผ่านการตัดสินใจทางจริยธรรมของตนเอง [222]เขตข้อมูลนี้ถูกอธิบายไว้ในการประชุมวิชาการ AAAI Fall 2005 เกี่ยวกับจริยธรรมของเครื่องจักร: "งานวิจัยที่ผ่านมาเกี่ยวกับความสัมพันธ์ระหว่างเทคโนโลยีและจริยธรรมส่วนใหญ่มุ่งเน้นไปที่การใช้เทคโนโลยีอย่างรับผิดชอบและไร้ความรับผิดชอบของมนุษย์โดยมีคนไม่กี่คนที่สนใจว่ามนุษย์ สิ่งมีชีวิตควรที่จะปฏิบัติต่อเครื่องจักรในทุกกรณีมีเพียงมนุษย์เท่านั้นที่มีส่วนร่วมในการให้เหตุผลทางจริยธรรมถึงเวลาแล้วที่จะต้องเพิ่มมิติทางจริยธรรมให้กับเครื่องจักรอย่างน้อยที่สุดการรับรู้ถึงความแตกต่างทางจริยธรรมของพฤติกรรมที่เกี่ยวข้องกับเครื่องจักรตลอดจนล่าสุดและศักยภาพ การพัฒนาความเป็นอิสระของเครื่องจักรจำเป็นต้องมีสิ่งนี้ในทางตรงกันข้ามกับการแฮ็กคอมพิวเตอร์ปัญหาเกี่ยวกับคุณสมบัติของซอฟต์แวร์ปัญหาความเป็นส่วนตัวและหัวข้ออื่น ๆ ที่กำหนดโดยทั่วไปเกี่ยวกับจริยธรรมของคอมพิวเตอร์จริยธรรมของเครื่องเกี่ยวข้องกับพฤติกรรมของเครื่องจักรที่มีต่อผู้ใช้ที่เป็นมนุษย์และเครื่องจักรอื่น ๆ การวิจัยในจริยธรรมของเครื่องคือ กุญแจสำคัญในการบรรเทาความกังวลเกี่ยวกับระบบอิสระ - อาจเป็นที่ถกเถียงกันอยู่ว่าความคิดของเครื่องจักรอัตโนมัติที่ไม่มี uch มิติเป็นรากเหง้าของความกลัวทั้งหมดที่เกี่ยวข้องกับความฉลาดของเครื่องจักร นอกจากนี้การตรวจสอบจริยธรรมของเครื่องจักรสามารถช่วยให้ค้นพบปัญหาเกี่ยวกับทฤษฎีทางจริยธรรมในปัจจุบันทำให้ความคิดของเราเกี่ยวกับจริยธรรมก้าวหน้าขึ้น " [223]จริยธรรมของเครื่องจักรบางครั้งเรียกว่าศีลธรรมของเครื่องจักรจริยธรรมเชิงคำนวณหรือศีลธรรมในการคำนวณมุมมองที่หลากหลายของการตั้งไข่นี้ สามารถพบได้ใน "Machine Ethics" [222]ฉบับที่รวบรวมซึ่งมาจากการประชุมวิชาการ AAAI Fall 2005 เกี่ยวกับจริยธรรมของเครื่องจักร[223]

AI ที่ร้ายกาจและเป็นมิตร

นักรัฐศาสตร์Charles T. Rubinเชื่อว่า AI ไม่สามารถออกแบบหรือรับประกันได้ว่าจะมีเมตตากรุณา [224]เขาให้เหตุผลว่า "ความเมตตากรุณาขั้นสูงใด ๆ ที่เพียงพออาจแยกไม่ออกจากความมุ่งร้าย" มนุษย์ไม่ควรถือว่าเครื่องจักรหรือหุ่นยนต์ปฏิบัติต่อเราในทางที่ดีเพราะไม่มีเหตุผลเบื้องต้นที่จะเชื่อว่าพวกเขาจะเห็นอกเห็นใจระบบศีลธรรมของเราซึ่งพัฒนาไปพร้อมกับชีววิทยาเฉพาะของเรา (ซึ่ง AI จะไม่แบ่งปัน) ซอฟต์แวร์ไฮเปอร์อัจฉริยะอาจไม่จำเป็นต้องตัดสินใจที่จะสนับสนุนการดำรงอยู่ของมนุษยชาติอย่างต่อเนื่องและเป็นเรื่องยากอย่างยิ่งที่จะหยุดยั้ง เมื่อเร็ว ๆ นี้หัวข้อนี้ยังได้รับการกล่าวถึงในสิ่งพิมพ์ทางวิชาการว่าเป็นแหล่งที่มาของความเสี่ยงที่แท้จริงต่ออารยธรรมมนุษย์และดาวเคราะห์โลก

ข้อเสนอหนึ่งในการจัดการกับปัญหานี้คือเพื่อให้แน่ใจว่า AI อัจฉริยะโดยทั่วไปตัวแรกคือ ' Friendly AI ' และจะสามารถควบคุม AI ที่พัฒนาในภายหลังได้ บางคนมีคำถามว่าการตรวจสอบแบบนี้สามารถคงอยู่ได้จริงหรือไม่

Rodney Brooksนักวิจัย AI ชั้นนำเขียนว่า“ ฉันคิดว่าเป็นความผิดพลาดที่ต้องกังวลเกี่ยวกับการที่เราพัฒนา AI ที่ชั่วร้ายได้ตลอดเวลาในอีกไม่กี่ร้อยปีข้างหน้าฉันคิดว่าความกังวลเกิดจากข้อผิดพลาดพื้นฐานในการไม่แยกแยะความแตกต่างระหว่างความก้าวหน้าล่าสุดที่แท้จริง ในแง่มุมเฉพาะของ AI และความมหึมาและความซับซ้อนของการสร้างปัญญาเชิงเปลี่ยนแปลงอารมณ์ " [225]

อาวุธประจำตัวที่ร้ายแรงเป็นสิ่งที่น่ากังวล ปัจจุบันประเทศต่างๆกว่า 50 ประเทศกำลังวิจัยหุ่นยนต์ในสนามรบซึ่งรวมถึงสหรัฐอเมริกาจีนรัสเซียและสหราชอาณาจักร หลายคนกังวลเกี่ยวกับความเสี่ยงจาก AI ที่ชาญฉลาดและต้องการ จำกัด การใช้ทหารเทียมและโดรน [226]

สติสัมปชัญญะความรู้สึกและจิตใจ

หากระบบ AI จำลองลักษณะสำคัญทั้งหมดของความฉลาดของมนุษย์ระบบนั้นจะมีความรู้สึกด้วย - มันจะมีจิตใจที่มีประสบการณ์ที่ใส่ใจหรือไม่? คำถามนี้เป็นคำถามที่เกี่ยวข้องอย่างใกล้ชิดกับปัญหาปรัชญาเป็นธรรมชาติของจิตสำนึกของมนุษย์ที่เรียกโดยทั่วไปว่าเป็นปัญหาหนักของสติ

สติ

David Chalmersระบุปัญหาสองประการในการทำความเข้าใจจิตใจซึ่งเขาตั้งชื่อว่าปัญหาที่ "ยาก" และ "ง่าย" ของสติ [227]ปัญหาง่ายๆคือการทำความเข้าใจว่าสมองประมวลผลสัญญาณวางแผนและควบคุมพฤติกรรมอย่างไร ปัญหาหนักคือการอธิบายว่าสิ่งนี้รู้สึกอย่างไรหรือทำไมจึงควรรู้สึกเหมือนทุกอย่าง การประมวลผลข้อมูลของมนุษย์นั้นง่ายต่อการอธิบายอย่างไรก็ตามประสบการณ์ส่วนตัวของมนุษย์นั้นยากที่จะอธิบาย

ตัวอย่างเช่นพิจารณาว่าจะเกิดอะไรขึ้นเมื่อมีคนแสดงแถบสีและระบุว่า "มันเป็นสีแดง" ปัญหาง่าย ๆ เพียงแค่ต้องทำความเข้าใจกับเครื่องจักรในสมองที่ทำให้คนรู้ว่าแถบสีเป็นสีแดง ปัญหาที่ยากคือว่าคนที่ยังไม่ทราบอย่างอื่นพวกเขายังรู้ว่าสิ่งที่ดูเหมือนสีแดง (พิจารณาว่าคนตาบอด แต่กำเนิดสามารถรู้ได้ว่ามีบางอย่างเป็นสีแดงโดยไม่รู้ว่าสีแดงมีลักษณะอย่างไร) [k]ทุกคนรู้ว่ามีประสบการณ์ส่วนตัวเพราะพวกเขาทำทุกวัน (เช่นคนที่มองเห็นทุกคนรู้ว่าสีแดงเป็นอย่างไร) ปัญหาหนักคือการอธิบายว่าสมองสร้างขึ้นมาได้อย่างไรทำไมจึงมีอยู่และแตกต่างจากความรู้และด้านอื่น ๆ ของสมองอย่างไร

Computationalism และ functionalism

Computationalism เป็นตำแหน่งในปรัชญาของจิตใจที่ว่าจิตใจของมนุษย์หรือสมองของมนุษย์ (หรือทั้งสองอย่าง) เป็นระบบประมวลผลข้อมูลและการคิดนั้นเป็นรูปแบบหนึ่งของการคำนวณ [228] computationalism ระบุว่าความสัมพันธ์ระหว่างร่างกายและจิตใจเป็นที่คล้ายกันหรือเหมือนกันกับความสัมพันธ์ระหว่างซอฟต์แวร์และฮาร์ดแวร์และดังนั้นจึงอาจจะแก้ปัญหาที่จะมีปัญหาจิตใจร่างกาย ตำแหน่งนี้ปรัชญาได้แรงบันดาลใจจากการทำงานของเอไอวิจัยและองค์ความรู้วิทยาศาสตร์ในปี 1960 และได้รับการเสนอโดยนักปรัชญาเจอร์รีโดร์และฮิลารีพัท

สมมติฐาน AI ที่แข็งแกร่ง

ตำแหน่งทางปรัชญาที่John Searleตั้งชื่อว่า"AI ที่แข็งแกร่ง"กล่าวว่า "คอมพิวเตอร์ที่ตั้งโปรแกรมไว้อย่างเหมาะสมพร้อมอินพุตและเอาต์พุตที่เหมาะสมจะมีความคิดในแง่เดียวกันกับที่มนุษย์มีจิตใจ" [l] Searle ตอบโต้การยืนยันนี้ด้วยข้อโต้แย้งในห้องภาษาจีนของเขาซึ่งขอให้เราดูในคอมพิวเตอร์และพยายามค้นหาว่า "จิตใจ" อาจอยู่ที่ใด [230]

สิทธิของหุ่นยนต์

หากสามารถสร้างเครื่องจักรที่มีความฉลาดได้ก็จะรู้สึกเช่นกัน? ถ้ารู้สึกได้มันมีสิทธิเหมือนมนุษย์หรือไม่? ปัญหานี้ซึ่งปัจจุบันรู้จักกันในชื่อ " สิทธิของหุ่นยนต์ " กำลังอยู่ในการพิจารณาของตัวอย่างเช่นสถาบันเพื่ออนาคตแห่งแคลิฟอร์เนียแม้ว่านักวิจารณ์หลายคนเชื่อว่าการอภิปรายดังกล่าวจะเกิดขึ้นก่อนเวลาอันควร [231] [232]นักวิจารณ์บางคนเกี่ยวกับtranshumanismโต้แย้งว่าสิทธิของหุ่นยนต์ที่สมมุติขึ้นจะอยู่บนสเปกตรัมด้วยสิทธิสัตว์และสิทธิมนุษยชน [233]เรื่องที่จะกล่าวถึงอย่างสุดซึ้งใน 2010 ภาพยนตร์สารคดีPlug & Pray , [234]และสื่อวิทย์ fi หลายอย่างเช่นStar Trekรุ่นต่อไปด้วยตัวอักษรของผู้บัญชาการข้อมูลที่ต่อสู้ถูกถอดชิ้นส่วนสำหรับการวิจัยและอยากจะ " กลายเป็นมนุษย์ "และโฮโลแกรมของหุ่นยนต์ในยานโวเอเจอร์

Superintelligence

มีข้อ จำกัด ว่าเครื่องจักรอัจฉริยะหรือลูกผสมมนุษย์ - เครื่องจักรสามารถเป็นได้อย่างไร? ความฉลาดเหนือจินตนาการความฉลาดเกินมนุษย์หรือความฉลาดเหนือมนุษย์เป็นตัวแทนสมมุติฐานที่จะมีสติปัญญาเหนือกว่าจิตใจของมนุษย์ที่สว่างไสวและมีพรสวรรค์มากที่สุด Superintelligenceอาจหมายถึงรูปแบบหรือระดับความฉลาดที่ตัวแทนดังกล่าวครอบครอง [157]

ความเป็นเอกฐานทางเทคโนโลยี

หากการวิจัยเรื่องStrong AIทำให้เกิดซอฟต์แวร์ที่ชาญฉลาดเพียงพอก็อาจสามารถตั้งโปรแกรมใหม่และปรับปรุงตัวเองได้ ซอฟต์แวร์ที่ได้รับการปรับปรุงจะดียิ่งขึ้นในการปรับปรุงตัวเองซึ่งนำไปสู่การปรับปรุงตนเองซ้ำ[235]ความฉลาดใหม่นี้สามารถเพิ่มขึ้นอย่างทวีคูณและเหนือกว่ามนุษย์อย่างมาก นักเขียนนิยายวิทยาศาสตร์Vernor Vingeตั้งชื่อสถานการณ์นี้ว่า " singularity " [236]ความเป็นเอกฐานทางเทคโนโลยีคือเมื่อการเร่งความก้าวหน้าของเทคโนโลยีจะทำให้เกิดผลกระทบที่ไม่อาจหลีกเลี่ยงโดยที่ปัญญาประดิษฐ์จะเกินขีดความสามารถและการควบคุมทางปัญญาของมนุษย์ดังนั้นการเปลี่ยนแปลงอย่างรุนแรงหรือแม้กระทั่งการสิ้นสุดอารยธรรม เนื่องจากความสามารถของหน่วยสืบราชการลับดังกล่าวอาจไม่สามารถเข้าใจได้ความเป็นเอกฐานทางเทคโนโลยีจึงเกิดขึ้นนอกเหนือจากเหตุการณ์ที่คาดเดาไม่ได้หรือไม่อาจหยั่งรู้ได้ [236] [157]

Ray Kurzweilได้ใช้กฎของ Moore (ซึ่งอธิบายถึงการปรับปรุงเอกซ์โพเนนเชียลอย่างไม่หยุดยั้งในเทคโนโลยีดิจิทัล) เพื่อคำนวณว่าคอมพิวเตอร์เดสก์ท็อปจะมีพลังในการประมวลผลเช่นเดียวกับสมองของมนุษย์ภายในปี 2029 และคาดการณ์ว่าภาวะเอกฐานจะเกิดขึ้นในปี 2045 [236]

Transhumanism

นักออกแบบหุ่นยนต์Hans Moravecนักไซเบอร์เนติกส์Kevin Warwickและนักประดิษฐ์Ray Kurzweilได้คาดการณ์ว่าในอนาคตมนุษย์และเครื่องจักรจะรวมกันเป็นหุ่นยนต์ที่มีความสามารถและทรงพลังมากกว่าทั้งสองอย่าง [237]ความคิดนี้เรียกว่าtranshumanismมีรากในฮักซ์ลีย์และโรเบิร์ต Ettinger

Edward Fredkin ให้เหตุผลว่า "ปัญญาประดิษฐ์เป็นขั้นตอนต่อไปในวิวัฒนาการ" ซึ่งเป็นแนวคิดที่เสนอครั้งแรกโดย" ดาร์วินท่ามกลางเครื่องจักร " ของซามูเอลบัตเลอร์ย้อนกลับไปในปีพ. ศ. 2406 และขยายผลโดยจอร์จไดสันในหนังสือชื่อเดียวกันใน พ.ศ. 2541 [238]

ผลกระทบทางเศรษฐกิจในระยะยาวของ AI นั้นไม่แน่นอน จากการสำรวจของนักเศรษฐศาสตร์ที่แสดงให้เห็นความขัดแย้งเกี่ยวกับว่าการใช้งานที่เพิ่มมากขึ้นของหุ่นยนต์และ AI จะทำให้เกิดการเพิ่มขึ้นมากในระยะยาวการว่างงานแต่พวกเขาโดยทั่วไปยอมรับว่ามันอาจจะเป็นประโยชน์สุทธิถ้าผลผลิตกำไรมีการแจกจ่าย [239]ผลการศึกษาในปี 2017 โดยไพร้ซวอเตอร์เฮาส์คูเปอร์สพบว่าสาธารณรัฐประชาชนจีนได้รับประโยชน์สูงสุดจาก AI โดยมี 26,1% ของGDPจนถึงปี 2573 [240]สมุดปกขาวของสหภาพยุโรปเกี่ยวกับปัญญาประดิษฐ์ฉบับเดือนกุมภาพันธ์ พ.ศ. 2563 ที่สนับสนุนปัญญาประดิษฐ์เพื่อเศรษฐกิจ ประโยชน์ที่ได้รับรวมถึง "การปรับปรุงการดูแลสุขภาพ (เช่นการวินิจฉัยที่แม่นยำยิ่งขึ้นทำให้สามารถป้องกันโรคได้ดีขึ้น) เพิ่มประสิทธิภาพของการทำฟาร์มมีส่วนช่วยลดการเปลี่ยนแปลงสภาพภูมิอากาศและการปรับตัว [และ] การปรับปรุงประสิทธิภาพของระบบการผลิตผ่านการบำรุงรักษาเชิงคาดการณ์" ในขณะที่รับทราบ ความเสี่ยงที่อาจเกิดขึ้น [193]

ความสัมพันธ์ระหว่างระบบอัตโนมัติและการจ้างงานที่มีความซับซ้อน แม้ว่าระบบอัตโนมัติจะกำจัดงานเก่า แต่ก็ยังสร้างงานใหม่ผ่านผลกระทบทางเศรษฐกิจระดับจุลภาคและเศรษฐกิจมหภาค [241]ซึ่งแตกต่างจากระบบอัตโนมัติในช่วงก่อนหน้านี้งานระดับกลางจำนวนมากอาจถูกกำจัดโดยปัญญาประดิษฐ์ ดิอีโคโนมิสต์ระบุว่า "ความกังวลที่ AI จะทำกับงานปกขาวที่พลังไอน้ำทำกับคนปกสีน้ำเงินในช่วงปฏิวัติอุตสาหกรรม" นั้น "ควรค่าแก่การเอาจริงเอาจัง" [242] การประมาณความเสี่ยงที่เป็นส่วนตัวแตกต่างกันไป ตัวอย่างเช่น Michael Osborne และCarl Benedikt Freyประเมินว่า 47% ของงานในสหรัฐฯมี "ความเสี่ยงสูง" ของระบบอัตโนมัติที่อาจเกิดขึ้นในขณะที่รายงาน OECD ระบุว่ามีงานในสหรัฐฯเพียง 9% เท่านั้นที่ "มีความเสี่ยงสูง" [243] [244] [245]งานที่มีความเสี่ยงสูงมีตั้งแต่งานพาราไปจนถึงพ่อครัวทำอาหารจานด่วนในขณะที่ความต้องการงานมีแนวโน้มเพิ่มขึ้นสำหรับอาชีพที่เกี่ยวข้องกับการดูแลตั้งแต่การดูแลสุขภาพส่วนบุคคลไปจนถึงนักบวช [246]ผู้เขียนมาร์ตินฟอร์ดและคนอื่น ๆ ไปไกลกว่านั้นและโต้แย้งว่างานจำนวนมากเป็นงานประจำซ้ำซากและ (สำหรับ AI) สามารถคาดเดาได้ ฟอร์ดเตือนว่างานเหล่านี้อาจเป็นแบบอัตโนมัติในอีกไม่กี่ทศวรรษข้างหน้าและงานใหม่จำนวนมากอาจไม่สามารถ "เข้าถึงได้สำหรับคนที่มีความสามารถโดยเฉลี่ย" แม้ว่าจะมีการฝึกอบรมใหม่ก็ตาม นักเศรษฐศาสตร์ชี้ให้เห็นว่าในอดีตเทคโนโลยีมีแนวโน้มเพิ่มขึ้นแทนที่จะลดการจ้างงานทั้งหมด แต่ยอมรับว่า "เราอยู่ในดินแดนที่ไม่จดที่แผนที่" ด้วย AI [35]

ผลกระทบเชิงลบที่อาจเกิดขึ้นจาก AI และระบบอัตโนมัติเป็นปัญหาสำคัญสำหรับแคมเปญชิงตำแหน่งประธานาธิบดีปี 2020ของAndrew Yangในสหรัฐอเมริกา [247] Irakli Beridze หัวหน้าศูนย์ปัญญาประดิษฐ์และหุ่นยนต์ของ UNICRI องค์การสหประชาชาติได้กล่าวว่า "ฉันคิดว่าแอปพลิเคชันที่เป็นอันตรายสำหรับ AI จากมุมมองของฉันน่าจะเป็นอาชญากรหรือองค์กรก่อการร้ายขนาดใหญ่ที่ใช้มันเพื่อก่อกวน กระบวนการขนาดใหญ่หรือเพียงแค่ทำอันตรายอย่างบริสุทธิ์ [ผู้ก่อการร้ายอาจก่อให้เกิดอันตราย] ผ่านสงครามดิจิทัลหรืออาจเป็นการผสมผสานระหว่างหุ่นยนต์โดรนกับ AI และสิ่งอื่น ๆ เช่นกันซึ่งอาจเป็นอันตรายจริงๆและแน่นอนความเสี่ยงอื่น ๆ ก็ตามมา จากสิ่งต่างๆเช่นการสูญเสียงานหากเรามีคนจำนวนมากตกงานและไม่พบวิธีแก้ปัญหาจะเป็นอันตรายอย่างยิ่งสิ่งต่างๆเช่นระบบอาวุธอัตโนมัติที่ร้ายแรงควรได้รับการควบคุมอย่างเหมาะสมมิฉะนั้นอาจมีการใช้ในทางที่ผิดได้มาก " [248]

ความเสี่ยงของ AI ที่แคบ

การใช้ปัญญาประดิษฐ์อย่างแพร่หลายอาจส่งผลที่ไม่คาดคิดซึ่งเป็นอันตรายหรือไม่พึงปรารถนา นักวิทยาศาสตร์จากFuture of Life Instituteและคนอื่น ๆ ได้อธิบายเป้าหมายการวิจัยระยะสั้นเพื่อดูว่า AI มีอิทธิพลต่อเศรษฐกิจกฎหมายและจริยธรรมที่เกี่ยวข้องกับ AI อย่างไรและจะลดความเสี่ยงด้านความปลอดภัยของ AI ได้อย่างไร ในระยะยาวนักวิทยาศาสตร์ได้เสนอให้เพิ่มประสิทธิภาพฟังก์ชันต่อไปในขณะที่ลดความเสี่ยงด้านความปลอดภัยที่อาจเกิดขึ้นพร้อมกับเทคโนโลยีใหม่ ๆ [249]

บางคนกังวลเกี่ยวกับอคติของอัลกอริทึมว่าโปรแกรม AI อาจกลายเป็นอคติโดยไม่ได้ตั้งใจหลังจากประมวลผลข้อมูลที่มีอคติ [250]อัลกอริทึมมีการใช้งานมากมายในระบบกฎหมาย ตัวอย่างนี้เป็นCOMPAS , โปรแกรมเชิงพาณิชย์ที่ใช้กันอย่างแพร่หลายโดยศาลสหรัฐเพื่อประเมินโอกาสในการที่จำเลยกลายเป็นrecidivist ProPublicaอ้างว่าระดับความเสี่ยงในการกระทำผิดซ้ำที่กำหนดโดย COMPAS โดยเฉลี่ยของจำเลยผิวดำนั้นสูงกว่าระดับความเสี่ยงโดยเฉลี่ยที่กำหนดโดย COMPAS ของจำเลยผิวขาวอย่างมีนัยสำคัญ [251]

ความเสี่ยงของ AI ทั่วไป

ฟิสิกส์สตีเฟ่นฮอว์คิง , ไมโครซอฟท์ผู้ก่อตั้งบิลเกตส์ , ประวัติอาจารย์Yuval โนอาห์ Harariและสปาก่อตั้งElon Muskได้แสดงความกังวลเกี่ยวกับความเป็นไปได้ที่เอไอจะมีวิวัฒนาการไปยังจุดที่มนุษย์ไม่สามารถควบคุมได้ด้วยฮอว์คิงทฤษฎีที่ว่านี้สามารถ " สะกดท้ายที่สุด ของเผ่าพันธุ์มนุษย์ ”. [252] [253] [254] [255]

การพัฒนาปัญญาประดิษฐ์เต็มรูปแบบสามารถสะกดการสิ้นสุดของเผ่าพันธุ์มนุษย์ได้ เมื่อมนุษย์พัฒนาปัญญาประดิษฐ์แล้วก็จะถอดตัวเองและออกแบบตัวเองใหม่ในอัตราที่เพิ่มขึ้นเรื่อย ๆ มนุษย์ซึ่งถูก จำกัด ด้วยวิวัฒนาการทางชีววิทยาที่ช้าไม่สามารถแข่งขันได้และจะถูกแทนที่ด้วย

-  สตีเฟนฮอว์คิง[256]

ในหนังสือSuperintelligenceของเขาNick Bostromนักปรัชญาให้เหตุผลว่าปัญญาประดิษฐ์จะเป็นภัยคุกคามต่อมนุษยชาติ เขาระบุว่า AI ที่ชาญฉลาดเพียงพอหากเลือกการกระทำตามการบรรลุเป้าหมายบางอย่างจะแสดงพฤติกรรมที่มาบรรจบกันเช่นการได้มาซึ่งทรัพยากรหรือการป้องกันตัวเองจากการถูกปิด หากเป้าหมายของ AI นี้ไม่ได้สะท้อนถึงความเป็นมนุษย์อย่างสมบูรณ์ตัวอย่างหนึ่งคือ AI บอกให้คำนวณตัวเลขของ pi ให้ได้มากที่สุด - อาจเป็นอันตรายต่อมนุษยชาติเพื่อให้ได้มาซึ่งทรัพยากรมากขึ้นหรือป้องกันไม่ให้ตัวเองถูกปิดลงในที่สุดเพื่อให้บรรลุเป้าหมายได้ดีขึ้น . Bostrom ยังเน้นย้ำถึงความยากลำบากในการถ่ายทอดคุณค่าของมนุษยชาติไปยัง AI ขั้นสูง เขาใช้ตัวอย่างสมมุติฐานในการให้ AI เป็นเป้าหมายเพื่อทำให้มนุษย์ยิ้มได้เพื่อแสดงให้เห็นถึงความพยายามที่เข้าใจผิด หาก AI ในสถานการณ์นั้นกลายเป็นอัจฉริยะขั้นสูง Bostrom ให้เหตุผลว่าอาจใช้วิธีที่มนุษย์ส่วนใหญ่พบว่าน่ากลัวเช่นการใส่ "อิเล็กโทรดเข้าไปในกล้ามเนื้อใบหน้าของมนุษย์เพื่อให้คงที่และยิ้มแย้มแจ่มใส" เพราะนั่นจะเป็นวิธีที่มีประสิทธิภาพ วิธีที่จะบรรลุเป้าหมายในการทำให้มนุษย์ยิ้มได้ [257]ในหนังสือของเขาชนเข้ากันได้ , AI วิจัยจวร์ตเจรัสเซลสะท้อนบางส่วนของความกังวล Bostrom ในขณะที่ยังมีการเสนอแนวทางในการพัฒนาเครื่องจักรประโยชน์สรรพสิ่งมุ่งเน้นไปที่ความไม่แน่นอนและความเคารพต่อมนุษย์[258] : 173ที่อาจจะเกี่ยวข้องกับการเรียนรู้การเสริมแรงผกผัน [258] : 191–193

ความกังวลเกี่ยวกับความเสี่ยงจากปัญญาประดิษฐ์ได้นำไปสู่การบริจาคและการลงทุนที่มีรายละเอียดสูง กลุ่ม บริษัท เทคโนโลยีชั้นนำที่มีชื่อเสียง ได้แก่Peter Thiel , Amazon Web Services และ Musk ได้มอบเงิน 1 พันล้านดอลลาร์ให้กับOpenAIซึ่งเป็น บริษัท ที่ไม่แสวงหาผลกำไรที่มุ่งสนับสนุนการพัฒนา AI อย่างมีความรับผิดชอบ [259]ความเห็นของผู้เชี่ยวชาญในสาขาปัญญาประดิษฐ์ผสมกันโดยมีเศษส่วนขนาดใหญ่ทั้งที่เกี่ยวข้องและไม่กังวลกับความเสี่ยงจาก AI ที่มีความสามารถเหนือมนุษย์ในที่สุด [260]ผู้นำในอุตสาหกรรมเทคโนโลยีอื่น ๆ เชื่อว่าปัญญาประดิษฐ์มีประโยชน์ในรูปแบบปัจจุบันและจะช่วยเหลือมนุษย์ต่อไป Mark Hurdซีอีโอของ Oracle ระบุว่า AI "จะสร้างงานได้มากขึ้นไม่ใช่งานน้อยลง" เนื่องจากมนุษย์จะต้องใช้ในการจัดการระบบ AI [261] Mark Zuckerbergซีอีโอของ Facebook เชื่อว่า AI จะ "ปลดล็อกสิ่งดีๆจำนวนมาก" เช่นการรักษาโรคและเพิ่มความปลอดภัยให้กับรถยนต์ที่เป็นอิสระ [262]ในเดือนมกราคม 2015 Musk บริจาคเงิน 10 ล้านดอลลาร์ให้กับFuture of Life Instituteเพื่อเป็นทุนในการวิจัยเกี่ยวกับการทำความเข้าใจการตัดสินใจของ AI เป้าหมายของสถาบันคือ "เพิ่มพูนภูมิปัญญาโดยที่เราจัดการ" พลังที่เพิ่มขึ้นของเทคโนโลยี Musk ยังให้ทุนแก่ บริษัท ที่พัฒนาปัญญาประดิษฐ์เช่นDeepMindและVicariousเพื่อ "จับตาดูสิ่งที่เกิดขึ้นกับปัญญาประดิษฐ์[263]ฉันคิดว่าอาจมีผลลัพธ์ที่เป็นอันตรายที่นั่น" [264] [265]

เพื่อให้ตระหนักถึงอันตรายของ AI ขั้นสูงที่ไม่สามารถควบคุมได้ AI ที่สมมุติขึ้นจะต้องเอาชนะหรือคิดเอาเองทั้งหมดของมนุษยชาติซึ่งผู้เชี่ยวชาญส่วนน้อยให้เหตุผลว่ามีความเป็นไปได้มากพอในอนาคตที่จะไม่คุ้มค่ากับการค้นคว้า [266] [267] การตอบโต้อื่น ๆ หมุนรอบตัวมนุษย์ว่ามีคุณค่าจากภายในหรือในเชิงบรรจบกันจากมุมมองของปัญญาประดิษฐ์ [268]

การควบคุมปัญญาประดิษฐ์คือการพัฒนานโยบายและกฎหมายของภาครัฐเพื่อส่งเสริมและควบคุมปัญญาประดิษฐ์ (AI) [269] [270]ดังนั้นจึงเป็นเรื่องที่เกี่ยวข้องกับการที่กว้างขึ้นกฎระเบียบของอัลกอริทึม แนวปฏิบัติด้านกฎระเบียบและนโยบายสำหรับ AI เป็นปัญหาที่เกิดขึ้นใหม่ในเขตอำนาจศาลทั่วโลกรวมถึงในสหภาพยุโรป [271]กฎระเบียบถือเป็นสิ่งที่จำเป็นในการส่งเสริม AI และจัดการความเสี่ยงที่เกี่ยวข้อง [272] [273]กฎระเบียบของ AI ผ่านกลไกต่างๆเช่นคณะกรรมการทบทวนนอกจากนี้ยังสามารถมองเห็นเป็นวิธีการทางสังคมในการเข้าหาปัญหาการควบคุม AI [274]

คำว่า "หุ่นยนต์" ได้รับการประกาศเกียรติคุณโดย Karel ČapekในบทละครRURของเขาในปี 1921 ซึ่งเป็นชื่อที่มาจาก "Rossum's Universal Robots"

ความคิดความสามารถในสิ่งมีชีวิตเทียมปรากฏเป็นนิทานอุปกรณ์มาตั้งแต่สมัยโบราณ, [37]และได้รับรูปแบบถาวรในนิยายวิทยาศาสตร์

ธรรมดาเปรียบเทียบในผลงานเหล่านี้เริ่มต้นด้วยแมรีเชลลีย์ 's Frankensteinที่สร้างมนุษย์จะกลายเป็นภัยคุกคามต่อปริญญาโทของมัน ซึ่งรวมถึงผลงานเช่นArthur C. Clarke'sและStanley Kubrick's 2001: A Space Odyssey (ทั้งปี 1968) พร้อมHAL 9000คอมพิวเตอร์สังหารที่รับผิดชอบยานอวกาศDiscovery OneรวมถึงThe Terminator (1984) และThe Matrix (1999 ). ในทางตรงกันข้ามหุ่นยนต์ผู้ภักดีที่หายากเช่น Gort จากThe Day the Earth Stood Still (1951) และ Bishop จากAliens (1986) มีความโดดเด่นน้อยกว่าในวัฒนธรรมสมัยนิยม [275]

Isaac Asimov ได้นำเสนอThree Laws of Roboticsในหนังสือและเรื่องราวต่างๆมากมายโดยเฉพาะชุด "Multivac" เกี่ยวกับคอมพิวเตอร์อัจฉริยะที่มีชื่อเดียวกัน กฎหมายของ Asimov มักจะถูกนำมาใช้ในระหว่างการอภิปรายเรื่องจริยธรรมของเครื่องจักร [276]ในขณะที่นักวิจัยด้านปัญญาประดิษฐ์เกือบทั้งหมดคุ้นเคยกับกฎหมายของ Asimov ผ่านวัฒนธรรมสมัยนิยม แต่โดยทั่วไปแล้วพวกเขาถือว่ากฎหมายนั้นไร้ประโยชน์ด้วยเหตุผลหลายประการซึ่งหนึ่งในนั้นคือความคลุมเครือของพวกเขา [277]

Transhumanism (ผสมของมนุษย์และเครื่องจักร) คือการสำรวจในมังงะ ผีในกะลาและนิยายวิทยาศาสตร์ชุดDune ในช่วงปี 1980 ซีรีส์ Sexy Robots ของศิลปินHajime Sorayamaได้ถูกวาดและตีพิมพ์ในญี่ปุ่นโดยแสดงให้เห็นถึงรูปร่างของมนุษย์ออร์แกนิกที่มีผิวโลหะเหมือนจริงและต่อมาก็มีหนังสือ "the Gynoids" ตามมาซึ่งผู้ผลิตภาพยนตร์ใช้หรือมีอิทธิพลเช่นGeorge Lucasและคนอื่น ๆ โฆษณา โซรายามะไม่เคยคิดว่าหุ่นยนต์ออร์แกนิกเหล่านี้เป็นส่วนหนึ่งของธรรมชาติที่แท้จริง แต่มักจะเป็นผลผลิตที่ผิดธรรมชาติของจิตใจมนุษย์ซึ่งเป็นจินตนาการที่มีอยู่ในจิตใจแม้ว่าจะตระหนักในรูปแบบที่แท้จริง

งานหลายชิ้นใช้ AI เพื่อบังคับให้เราเผชิญหน้ากับคำถามพื้นฐานที่ว่าอะไรทำให้เราเป็นมนุษย์แสดงให้เราเห็นสิ่งมีชีวิตเทียมที่มีความสามารถในการรู้สึกและทำให้เราต้องทนทุกข์ทรมาน สิ่งนี้ปรากฏในRURของKarel Čapekภาพยนตร์เรื่องAI Artificial IntelligenceและEx Machinaรวมถึงนวนิยายเรื่องDo Androids Dream of Electric Sheep? โดยฟิลิปเคดิ๊ก ดิ๊กคิดว่าความเข้าใจของเราเกี่ยวกับอัตวิสัยของมนุษย์ถูกเปลี่ยนแปลงโดยเทคโนโลยีที่สร้างขึ้นด้วยปัญญาประดิษฐ์ [278]

  • AI ที่เพิ่มขึ้น
  • ปัญหาการควบคุม AI
  • การแข่งขันอาวุธปัญญาประดิษฐ์
  • อัลกอริธึมการเลือกพฤติกรรม
  • ระบบอัตโนมัติของกระบวนการทางธุรกิจ
  • การให้เหตุผลตามกรณี
  • วิทยาศาสตร์พลเมือง
  • อัลกอริทึมฉุกเฉิน
  • เพศหญิงที่ใช้เทคโนโลยี AI
  • คำศัพท์เกี่ยวกับปัญญาประดิษฐ์
  • กฎระเบียบของปัญญาประดิษฐ์
  • กระบวนการอัตโนมัติของหุ่นยนต์
  • ปัญญาสังเคราะห์
  • รายได้พื้นฐานสากล
  • AI ที่อ่อนแอ

  1. ^ การกระทำของสเปกผลตอบแทนที่สามารถตัวเองจะเป็นทางการหรือโดยอัตโนมัติกลายเป็น "ฟังก์ชั่นได้รับรางวัล "
  2. ^ ศัพท์แตกต่างกันไป ดูลักษณะเฉพาะขั้นตอนวิธีการ
  3. ^ ช่องโหว่ของฝ่ายตรงข้ามอาจส่งผลให้เกิดระบบที่ไม่เป็นเชิงเส้นหรือจากการรบกวนที่ไม่ใช่รูปแบบ บางระบบมีความเปราะบางมากจนการเปลี่ยนแปลงพิกเซลตรงข้ามเพียงจุดเดียวทำให้เกิดการจัดประเภทที่ไม่ถูกต้อง
  4. ^ Alan Turingกล่าวถึงศูนย์กลางของการเรียนรู้ในช่วงต้นปี 1950 ในเอกสารคลาสสิกของเขา " Computing Machinery and Intelligence " [125]ในปีพ. ศ. 2499 ในการประชุมภาคฤดูร้อนของ Dartmouth AI Ray Solomonoffได้เขียนรายงานเกี่ยวกับการเรียนรู้ของเครื่องที่น่าจะเป็นที่ไม่ได้รับการดูแล: "An Inductive Inference Machine" [126]
  5. ^ นี่เป็นรูปแบบหนึ่งของคำจำกัดความของแมชชีนเลิร์นนิงที่ยกมาของ Tom Mitchell : "โปรแกรมคอมพิวเตอร์ได้รับการตั้งค่าให้เรียนรู้จากประสบการณ์ Eเกี่ยวกับงานบางอย่าง Tและการวัดประสิทธิภาพบางอย่าง Pหากประสิทธิภาพของ Tตามที่ Pวัดได้ดีขึ้น ด้วยประสบการณ์ E. "
  6. ^ Nils Nilssonเขียนว่า: "พูดง่ายๆก็คือมีความไม่เห็นด้วยอย่างกว้างขวางในสนามเกี่ยวกับ AI คืออะไร" [166]
  7. ^ กรณีที่น่าทึ่งที่สุดย่อยสัญลักษณ์ AI ถูกผลักลงในพื้นหลังเป็นวิจารณ์การทำลายล้างของเพอร์เซปตรอนโดยมาร์วินมินสกีและ Seymour Papertในปี 1969 ดูประวัติของ AI ,ฤดูหนาว AIหรือแฟรงก์ Rosenblatt [ ต้องการอ้างอิง ]
  8. ^ ในขณะที่ "ชัยชนะของ neats" อาจเป็นผลมาจากการที่ภาคสนามมีความเป็นผู้ใหญ่มากขึ้น แต่ AIMAระบุว่าในทางปฏิบัติทั้งแนวทางที่เรียบร้อยและไร้สาระยังคงมีความจำเป็นในการวิจัย AI
  9. ^ Dreyfus วิพากษ์วิจารณ์เงื่อนไขที่จำเป็นของสมมติฐานระบบสัญลักษณ์ทางกายภาพซึ่งเขาเรียกว่า "สมมติฐานทางจิตวิทยา": "จิตใจสามารถมองได้ว่าเป็นอุปกรณ์ที่ทำงานบนข้อมูลเล็กน้อยตามกฎเกณฑ์ที่เป็นทางการ" [207]
  10. ^ ในช่วงต้นทศวรรษ 1970 Kenneth Colby ได้นำเสนอ ELIZAของ Weizenbaum ที่รู้จักกันในชื่อ DOCTOR ซึ่งเขาส่งเสริมให้เป็นเครื่องมือในการรักษาที่จริงจัง [216]
  11. ^ สิ่งนี้มีพื้นฐานมาจาก Mary's Roomซึ่งเป็นการทดลองทางความคิดที่เสนอโดย Frank Jacksonในปี 1982
  12. ^ เวอร์ชันนี้มาจาก Searle (1999)และยังอ้างถึงใน Dennett 1991 , p. 435 สูตรดั้งเดิมของ Searle คือ "คอมพิวเตอร์ที่ตั้งโปรแกรมอย่างเหมาะสมนั้นเป็นสิ่งสำคัญจริงๆในแง่ที่ว่าคอมพิวเตอร์ที่ได้รับโปรแกรมที่เหมาะสมสามารถพูดได้ตามตัวอักษรว่าเข้าใจและมีสภาวะการรับรู้อื่น ๆ " [229] Strong AI ถูกกำหนดในทำนองเดียวกันโดย Russell & Norvig (2003 , p.947): "การยืนยันว่าเครื่องจักรสามารถทำงานได้อย่างชาญฉลาด (หรืออาจจะดีกว่าทำตัวราวกับว่ามันฉลาด) เรียกว่าสมมติฐาน 'AI ที่อ่อนแอ' โดยนักปรัชญาและการยืนยันว่าเครื่องจักรที่ทำเช่นนั้นกำลังคิดจริง (ซึ่งตรงข้ามกับการจำลอง คิด) เรียกว่าสมมติฐาน "AI ที่แข็งแกร่ง" "

  1. ^ พูล Mackworth & Goebel 1998 , P 1 .
  2. ^ รัสเซลและ Norvig 2003พี 55.
  3. ^ a b c นิยามของ AI เป็นการศึกษาตัวแทนอัจฉริยะ :
    • Poole, Mackworth & Goebel (1998)ซึ่งมีเวอร์ชันที่ใช้ในบทความนี้ ผู้เขียนเหล่านี้ใช้คำว่า "ปัญญาเชิงคำนวณ" เป็นคำพ้องความหมายของปัญญาประดิษฐ์ [1]
    • รัสเซลและนอร์วิก (2003)(ซึ่งชอบคำว่า "ตัวแทนเหตุผล") และเขียนว่า "มุมมองตัวแทนทั้งหมดได้รับการยอมรับอย่างกว้างขวางในสาขานี้แล้ว" [2]
    • ค๊อ 1998
    • Legg & Hutter 2007
  4. ^ รัสเซลและ Norvig 2009พี 2.
  5. ^ McCorduck 2004พี 204
  6. ^ Maloof, Mark "ปัญญาประดิษฐ์:. บทนำพี 37" (PDF) georgetown.edu . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 25 สิงหาคม 2018
  7. ^ "วิธี AI กำลังจะเฮ่การเปลี่ยนแปลงในความสามารถการบริหารจัดการทรัพยากรบุคคลและเทค" Hackernoon ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 กันยายน 2019 สืบค้นเมื่อ14 กุมภาพันธ์ 2563 .
  8. ^ Schank, Roger C. (1991). "ไออยู่ไหน". นิตยสาร AI ฉบับ. 12 เลขที่ 4. หน้า 38.
  9. ^ รัสเซลและ Norvig 2009
  10. ^ ก ข "AlphaGo - กูเกิลดีปไมด์" สืบค้นจากต้นฉบับเมื่อ 10 มีนาคม 2559.
  11. ^ ก ข โบว์ลิ่งไมเคิล; เบิร์ช, นีล; โยฮันสัน, ไมเคิล; Tammelin, Oskari (9 มกราคม 2558). "หัวขึ้นโป๊กเกอร์ขีด จำกัด Hold'em จะแก้ไข" วิทยาศาสตร์ . 347 (6218): 145–149 รหัสไปรษณีย์ : 2015Sci ... 347..145B . ดอย : 10.1126 / science.1259433 . ISSN  0036-8075 PMID  25574016 . S2CID  3796371
  12. ^ Allen, Gregory (เมษายน 2020) “ Department of Defense Joint AI Center - ความเข้าใจเทคโนโลยี AI” (PDF) . AI.mil - เว็บไซต์อย่างเป็นทางการของกระทรวงกลาโหมร่วมประดิษฐ์ Intelligence Center เก็บถาวร (PDF)จากเดิมในวันที่ 21 เมษายน 2020 สืบค้นเมื่อ25 เมษายน 2563 .
  13. ^ a b การ มองโลกในแง่ดีของ AI ยุคแรก: * อ้างของHerbert Simon : Simon 1965 , p. 96 อ้างในCrevier 1993 , p. 109. * คำพูดของMarvin Minsky : Minsky 1967 , p. 2 อ้างในCrevier 1993 , p. 109.
  14. ^ ขค บูม 1980: การเพิ่มขึ้นของระบบผู้เชี่ยวชาญ , โครงการรุ่นที่ห้า , Alvey , MCC , SCI : * McCorduck 2004 ., PP 426-441* Crevier 1993 , หน้า 161–162,197–203, 211, 240 * Russell & Norvig 2003 , p. 24* NRC 1999 , หน้า 210–211 * Newquist 1994 , หน้า 235–248
  15. ^ a b First AI Winter , Mansfield Amendment , Lighthill report * Crevier 1993 , pp. 115–117 * Russell & Norvig 2003 , p. 22* NRC 1999 , หน้า 212–213 * Howe 1994 * Newquist 1994 , หน้า 189–201
  16. ^ a b ฤดูหนาว AIที่สอง: * McCorduck 2004 , หน้า 430–435* Crevier 1993 , หน้า 209–210 * NRC 1999 , หน้า 214–216 * Newquist 1994 , หน้า 301–318
  17. ^ a b c AI ประสบความสำเร็จอย่างมหาศาลในต้นศตวรรษที่ 21 * Clark 2015b
  18. ^ แฮนลีน, ไมเคิล; Kaplan, Andreas (2019). "บทสรุปประวัติความเป็นมาของปัญญาประดิษฐ์: ในอดีตปัจจุบันและอนาคตของปัญญาประดิษฐ์" ทบทวนการบริหารจัดการของรัฐแคลิฟอร์เนีย 61 (4): 5–14. ดอย : 10.1177 / 0008125619864925 . ISSN  0008-1256 S2CID  199866730 .
  19. ^ a b Pamela McCorduck (2004 , น. 424) เขียนถึง "การแตกละเอียดอย่างคร่าวๆของ AI ในฟิลด์ย่อย - การมองเห็นภาษาธรรมชาติทฤษฎีการตัดสินใจอัลกอริธึมทางพันธุกรรมหุ่นยนต์ ... และสิ่งเหล่านี้มีฟิลด์ย่อยของตัวเองซึ่งแทบจะไม่มีอะไรจะพูดถึงกัน"
  20. ^ a b c รายการลักษณะที่ชาญฉลาดนี้อ้างอิงจากหัวข้อที่ครอบคลุมโดยหนังสือเรียน AI ที่สำคัญ ได้แก่ : * Russell & Norvig 2003* Luger & Stubblefield 2004 * Poole, Mackworth & Goebel 1998 * Nilsson 1998
  21. ^ Kolata 1982
  22. ^ ชง 2006
  23. ^ a b c ความฉลาดทางชีวภาพกับความฉลาดโดยทั่วไป:
    • Russell & Norvig 2003 , หน้า 2–3ที่ให้คล้ายคลึงกับวิศวกรรมการบิน
    • McCorduck 2004 , หน้า 100–101ซึ่งเขียนว่ามี "ปัญญาประดิษฐ์ 2 สาขาหลัก ๆ คือสาขาหนึ่งมุ่งเป้าไปที่การสร้างพฤติกรรมที่ชาญฉลาดโดยไม่คำนึงว่าจะสำเร็จได้อย่างไรและอีกสาขาหนึ่งมุ่งเป้าไปที่การสร้างแบบจำลองกระบวนการอัจฉริยะที่พบในธรรมชาติโดยเฉพาะอย่างยิ่งมนุษย์"
    • Kolata 1982บทความในScienceซึ่งอธิบายถึงความไม่สนใจของ McCarthyต่อแบบจำลองทางชีววิทยา Kolata อ้างคำพูดของ McCarthy ว่าเป็นงานเขียน: "นี่คือ AI ดังนั้นเราจึงไม่สนใจว่ามันจะเป็นเรื่องจริงในทางจิตวิทยาหรือไม่" [21]เมื่อเร็ว ๆ นี้แม็คคาร์ธีกล่าวย้ำจุดยืนของเขาในการประชุมAI @ 50ซึ่งเขากล่าวว่า "ปัญญาประดิษฐ์ไม่ใช่การจำลองปัญญาของมนุษย์ตามนิยาม" [22]
  24. ^ a b c Neats vs. scruffies : * McCorduck 2004 , pp. 421–424, 486–489* Crevier 1993หน้า 168 * ค๊ 1983 , หน้า 10–11
  25. ^ a b Symbolic vs. sub-symbolic AI: * Nilsson (1998 , p. 7) ซึ่งใช้คำว่า "sub-symbolic"
  26. ^ a b หน่วยสืบราชการลับทั่วไป ( AI ที่แข็งแกร่ง ) ถูกกล่าวถึงในบทนำที่เป็นที่นิยมสำหรับ AI: * Kurzweil 1999และKurzweil 2005
  27. ^ ดูข้อเสนอของดาร์ทเมาท์ภายใต้ปรัชญาด้านล่าง
  28. ^ McCorduck 2004พี 34.
  29. ^ McCorduck 2004พี xviii.
  30. ^ McCorduck 2004พี 3.
  31. ^ McCorduck 2004 , PP. 340-400
  32. ^ นี้เป็นความคิดกลางของพาเมลาแมคคอร์ดัก 's เครื่องที่คิด เธอเขียน:
    • "ฉันชอบคิดว่าปัญญาประดิษฐ์คือการทำลายล้างทางวิทยาศาสตร์ของประเพณีทางวัฒนธรรมที่น่าเคารพ" [28]
    • "ปัญญาประดิษฐ์ในรูปแบบใดรูปแบบหนึ่งเป็นความคิดที่แพร่กระจายไปทั่วประวัติศาสตร์ทางปัญญาของตะวันตกซึ่งเป็นความฝันที่จำเป็นเร่งด่วนในการรับรู้" [29]
    • "ประวัติศาสตร์ของเราเต็มไปด้วยความพยายามไม่ว่าจะเป็นเรื่องน่าขนลุกน่าขนลุกตลกจริงจังเป็นตำนานและเป็นเรื่องจริง - เพื่อสร้างปัญญาประดิษฐ์สร้างสิ่งที่จำเป็นสำหรับเราขึ้นมาใหม่โดยหลีกเลี่ยงวิธีการธรรมดาไปมาระหว่างตำนานกับความเป็นจริงจินตนาการของเราให้สิ่งที่ การประชุมเชิงปฏิบัติการของเราไม่สามารถทำได้เรามีส่วนร่วมเป็นเวลานานในรูปแบบการทำสำเนาตัวเองที่แปลกประหลาดนี้ " [30]
    เธอติดตามความปรารถนากลับไปสู่รากเหง้าของขนมผสมน้ำยาและเรียกสิ่งนี้ว่า "ปลอมแปลงเทพเจ้า" [31]
  33. ^ "สตีเฟนฮอว์คิงเชื่อ AI อาจจะเป็นมนุษย์ของความสำเร็จที่ผ่านมา" BetaNews 21 ตุลาคม 2559. สืบค้นเมื่อ 28 สิงหาคม 2560.
  34. ^ Lombardo P, Boehm I, Nairz K (2020) "RadioComics - ซานตาคลอสและอนาคตของรังสี" Eur J Radiol 122 (1): 108771. ดอย : 10.1016 / j.ejrad.2019.108771 PMID  31835078
  35. ^ ก ข ฟอร์ดมาร์ติน; Colvin, Geoff (6 กันยายน 2558). "หุ่นยนต์จะสร้างงานมากกว่าที่พวกเขาทำลายหรือไม่" . เดอะการ์เดียน . สืบค้นจากต้นฉบับเมื่อวันที่ 16 มิถุนายน 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
  36. ^ a b แอปพลิเคชัน AI ที่ใช้กันอย่างแพร่หลายในเบื้องหลัง: * Russell & Norvig 2003 , p. 28* Kurzweil 2005 , หน้า 265 * NRC 1999 , หน้า 216–222 * Newquist 1994 , หน้า 189–201
  37. ^ a b AI ในตำนาน: * McCorduck 2004 , หน้า 4–5* รัสเซลและนอร์วิก 2003 , p. 939
  38. ^ AI ในนิยายวิทยาศาสตร์ยุคแรก * McCorduck 2004 , หน้า 17–25
  39. ^ การ ให้เหตุผลอย่างเป็นทางการ: * เบอร์ลินสกีเดวิด (2000) จุติของอัลกอริทึม หนังสือ Harcourt ISBN 978-0-15-601391-8. OCLC  46890682 สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  40. ^ Turing, Alan (1948), "Machine Intelligence", ใน Copeland, B. Jack (ed.), The Essential Turing: แนวคิดที่ก่อให้เกิดยุคคอมพิวเตอร์ออกซ์ฟอร์ด: Oxford University Press, p. 412, ISBN 978-0-19-825080-7
  41. ^ รัสเซลและ Norvig 2009พี 16.
  42. ^ Dartmouth conference : * McCorduck 2004 , หน้า 111–136* Crevier 1993 , หน้า 47–49 ซึ่งเขียนว่า "โดยทั่วไปการประชุมนี้ได้รับการยอมรับว่าเป็นวันเกิดอย่างเป็นทางการของวิทยาศาสตร์ใหม่" * รัสเซลและนอร์วิก 2003 , p. 17ซึ่งเรียกการประชุมว่า "กำเนิดปัญญาประดิษฐ์" * NRC 2542 , หน้า 200–201
  43. ^ แม็คคาร์ธีจอห์น (2531) "การทบทวนคำถามของปัญญาประดิษฐ์ " พงศาวดารของประวัติศาสตร์ของคอมพิวเตอร์ 10 (3): 224–229.รวบรวมใน แม็คคาร์ธีจอห์น (2539) "10. การทบทวนคำถามของปัญญาประดิษฐ์ " ทุ่มวิจัยไอ: คอลเลกชันของบทความและความคิดเห็น CSLI, หน้า 73, "[O] เหตุผลในการคิดค้นคำว่า" ปัญญาประดิษฐ์ "คือการหลีกเลี่ยงการเชื่อมโยงกับ" ไซเบอร์เนติกส์ "ความเข้มข้นของคำติชมแบบอะนาล็อกดูเหมือนจะเข้าใจผิดและฉันต้องการหลีกเลี่ยงที่จะยอมรับ Norbert (ไม่ใช่ Robert) Wiener เป็นกูรูหรือต้องเถียงเขา”
  44. ^ ผู้เข้าร่วมการประชุม Dartmouth: * Russell & Norvig 2003 , p. 17ซึ่งเขียนว่า "ในอีก 20 ปีข้างหน้าสนามจะถูกครอบงำโดยคนเหล่านี้และนักเรียนของพวกเขา" * McCorduck 2004 , หน้า 129–130
  45. ^ รัสเซลและ Norvig 2003พี 18: "มันน่าประหลาดใจทุกครั้งที่คอมพิวเตอร์ทำอะไรที่ฉลาด"
  46. ^ Schaeffer เจ (2009) ซามูเอลไม่ได้แก้เกมที่ ?. ใน: One Jump Ahead สปริงเกอร์บอสตันแมสซาชูเซตส์
  47. ^ Samuel, AL (กรกฎาคม 2502) "การศึกษาบางอย่างในการเรียนรู้ของเครื่องโดยใช้เกมหมากฮอส" วารสารการวิจัยและพัฒนาของไอบีเอ็ม . 3 (3): 210–229. CiteSeerX  10.1.1.368.2254 ดอย : 10.1147 / rd.33.0210 .
  48. ^ "ปีทอง " ของ AI (โปรแกรมการให้เหตุผลเชิงสัญลักษณ์ที่ประสบความสำเร็จในปี 2499-2516): * McCorduck 2004 , หน้า 243–252* Crevier 1993 , หน้า 52–107 * Moravec 1988 , p. 9 * Russell & Norvig 2003 , หน้า 18–21โปรแกรมที่อธิบายเป็นอาร์เธอร์ซามูเอล 's โปรแกรมหมากฮอสสำหรับIBM 701 , แดเนียล Bobrow ' s STUDENT , Newellและไซมอนของลอจิกทฤษฎีและเทอร์รี่ Winograd 's SHRDLU
  49. ^ DARPAทุ่มเงินให้กับการวิจัยบริสุทธิ์ที่ไม่ได้ชี้นำสู่ AI ในช่วงทศวรรษที่ 1960: * McCorduck 2004 , p. 131* Crevier 1993 , หน้า 51, 64–65 * NRC 1999 , หน้า 204–205
  50. ^ AI ในอังกฤษ: * Howe 1994
  51. ^ ไลท์ฮิลล์ 1973
  52. ^ a b ระบบผู้เชี่ยวชาญ: * ACM 1998 , I.2.1 * Russell & Norvig 2003 , หน้า 22–24* Luger & Stubblefield 2004 , หน้า 227–331 * Nilsson 1998 , chpt. 17.4 * McCorduck 2004 , หน้า 327–335, 434–435* Crevier 1993 , หน้า 145–62, 197–203 * Newquist 1994 , หน้า 155–183
  53. ^ มธุรสช่างแกะก.; อิสมาอิลโมฮัมเหม็ด (8 พฤษภาคม 2532). อะนาล็อก VLSI การดำเนินงานของระบบประสาท (PDF) ซีรี่ส์นานาชาติ Kluwer ในสาขาวิศวกรรมศาสตร์และวิทยาการคอมพิวเตอร์ 80 . Norwell, MA: Kluwer วิชาการสำนักพิมพ์ ดอย : 10.1007 / 978-1-4613-1639-8 . ISBN 978-1-4613-1639-8. ที่เก็บไว้จากเดิม (PDF)เมื่อวันที่ 6 พฤศจิกายน 2019 สืบค้นเมื่อ24 มกราคม 2563 .
  54. ^ a b ควรใช้ วิธีการที่เป็นทางการแล้ว ("Victory of the neats "): * Russell & Norvig 2003 , pp. 25–26* McCorduck 2004 , หน้า 486–487
  55. ^ McCorduck 2004 , PP. 480-483
  56. ^ Markoff 2011
  57. ^ "ถามผู้เชี่ยวชาญด้าน AI: อะไรคือความก้าวหน้าของ AI ในปัจจุบัน" . McKinsey & Company สืบค้นจากต้นฉบับเมื่อวันที่ 13 เมษายน 2018 . สืบค้นเมื่อ13 เมษายน 2561 .
  58. ^ แฟร์เฮดแฮร์รี่ (26 มีนาคม 2554) [อัพเดท 30 มีนาคม 2554] "Kinect ของ AI ก้าวหน้าอธิบาย" ฉันโปรแกรมเมอร์ สืบค้นจากต้นฉบับเมื่อวันที่ 1 กุมภาพันธ์ 2559.
  59. ^ Rowinski, Dan (15 มกราคม 2556). "ผู้ช่วยส่วนตัวเสมือนและอนาคตของมาร์ทโฟนของคุณ [Infographic]" ReadWrite สืบค้นเมื่อ 22 ธันวาคม 2558.
  60. ^ "ปัญญาประดิษฐ์: AlphaGo ของ Google เต้นต้นแบบไปอีเซดอล" ข่าวบีบีซี . 12 มีนาคม 2559. สืบค้นเมื่อ 26 สิงหาคม 2559 . สืบค้นเมื่อ1 ตุลาคม 2559 .
  61. ^ Metz, Cade (27 พฤษภาคม 2017). "หลังจากที่ชนะในประเทศจีนออกแบบ AlphaGo ของ AI สำรวจใหม่" อินเทอร์เน็ตแบบใช้สาย สืบค้นจากต้นฉบับเมื่อวันที่ 2 มิถุนายน 2017.
  62. ^ "การให้คะแนนของโลกไปเล่น" พฤษภาคม 2017. สืบค้นเมื่อวันที่ 1 เมษายน 2017.
  63. ^ "柯洁迎 19 岁生日雄踞人类世界排名第一已两年" (ในภาษาจีน). พฤษภาคม 2017 เก็บจากต้นฉบับเมื่อวันที่ 11 สิงหาคม 2017.
  64. ^ "MuZero: Mastering Go, หมากรุก, shogi และ Atari ไม่มีกฎ" Deepmind . สืบค้นเมื่อ1 มีนาคม 2564 .
  65. ^ สตีเวนโบโรวีค; Tracey Lien (12 มีนาคม 2559). "AlphaGo เต้นมนุษย์แชมป์ไปในขั้นสำหรับปัญญาประดิษฐ์" ลอสแองเจลิสไทม์ส . สืบค้นเมื่อ13 มีนาคม 2559 .
  66. ^ เงินเดวิด ; ฮิวเบิร์ต, โทมัส; ชริตต์ไวเซอร์, จูเลียน; อันโตกลู, อิโออันนิส; ลาย, แมทธิว; เกซ, อาเธอร์; แลงค็อต, มาร์ก; ซิเฟร, ลอเรนท์; คุมารัน, ดาร์ชาน; Graepel, Thore; ลิลลิแคปทิโมธี; Simonyan, กะเหรี่ยง; Hassabis, Demis (7 ธันวาคม 2018). "เสริมทั่วไปขั้นตอนวิธีการเรียนรู้ที่โทหมากรุก, shogi และผ่านตัวเองเล่น" วิทยาศาสตร์ . 362 (6419): 1140–1144 รหัสไปรษณีย์ : 2018Sci ... 362.1140S . ดอย : 10.1126 / science.aar6404 . PMID  30523106
  67. ^ ชริตต์ไวเซอร์, จูเลียน; อันโตกลู, อิโออันนิส; ฮิวเบิร์ต, โทมัส; Simonyan, กะเหรี่ยง; ซิเฟร, ลอเรนท์; ชมิตต์, ไซมอน; เกซ, อาเธอร์; ล็อกฮาร์ตเอ็ดเวิร์ด; ฮัสซาบิส, เดมิส; Graepel, Thore; Lillicrap, Timothy (23 ธันวาคม 2020). "Mastering Atari ไปหมากรุกและ shogi โดยการวางแผนที่มีรูปแบบการเรียนรู้" ธรรมชาติ . 588 (7839): 604–609 arXiv : 1911.08265 Bibcode : 2020Natur.588..604S . ดอย : 10.1038 / s41586-020-03051-4 . ISSN  1476-4687 PMID  33361790 S2CID  208158225
  68. ^ ตุง, เลี่ยม. "ปัญญาประดิษฐ์ DeepMind เอซของ Google ท้าทายการเล่นเกมอาตาริ" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
  69. ^ Solly, Meilan "นี่เล่นโป๊กเกอร์ AI รู้ว่าเมื่อใดจะถือ 'em และเมื่อการพับให้หมด" สมิ ธ โซเนียน . Pluribus ได้นำเสนอผู้เชี่ยวชาญด้านโป๊กเกอร์ในซีรีส์เกม Texas Hold'em แบบไม่ จำกัด จำนวนผู้เล่นหกคนซึ่งบรรลุความสำเร็จครั้งสำคัญในการวิจัยปัญญาประดิษฐ์ เป็นบอทตัวแรกที่เอาชนะมนุษย์ในการแข่งขันแบบผู้เล่นหลายคนที่ซับซ้อน
  70. ^ a b คลาร์ก 2015b . "หลังจากครึ่งทศวรรษแห่งความก้าวหน้าอย่างเงียบ ๆ ในปัญญาประดิษฐ์ปี 2015 เป็นปีที่สำคัญคอมพิวเตอร์ฉลาดขึ้นและเรียนรู้ได้เร็วกว่าที่เคย"
  71. ^ "ด้วยปัญญาประดิษฐ์ Reshaping ธุรกิจ" MIT Sloan ทบทวนการบริหารจัดการ สืบค้นจากต้นฉบับเมื่อวันที่ 19 พฤษภาคม 2018 . สืบค้นเมื่อ2 พฤษภาคม 2561 .
  72. ^ Lorica, Ben (18 ธันวาคม 2017). "สถานะของการนำ AI มาใช้" . O'Reilly สื่อ สืบค้นจากต้นฉบับเมื่อวันที่ 2 พฤษภาคม 2018 . สืบค้นเมื่อ2 พฤษภาคม 2561 .
  73. ^ Allen, Gregory (6 กุมภาพันธ์ 2019). “ ทำความเข้าใจกลยุทธ์ AI ของจีน” . ศูนย์รักษาความปลอดภัยใหม่อเมริกัน สืบค้นจากต้นฉบับเมื่อวันที่ 17 มีนาคม 2019
  74. ^ "ทบทวน | วิธีมหาอำนาจทั้งสอง AI - สหรัฐฯและจีน - การต่อสู้เพื่ออำนาจสูงสุดในสนาม" วอชิงตันโพสต์ 2 พฤศจิกายน 2018. สืบค้นเมื่อวันที่ 4 พฤศจิกายน 2018 . สืบค้นเมื่อ4 พฤศจิกายน 2561 .
  75. ^ Anadiotis, George (1 ตุลาคม 2020). "รัฐของ AI ในปี 2020: ประชาธิปไตยอุตสาหกรรมและวิธีการทั่วไปปัญญาเทียม" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
  76. ^ Heath, Nick (11 ธันวาคม 2020). "อะไรคือ AI? ทุกสิ่งที่คุณจำเป็นต้องรู้เกี่ยวกับปัญญาประดิษฐ์" ZDNet สืบค้นเมื่อ1 มีนาคม 2564 .
  77. ^ แคปแลน, อันเดรียส; Haenlein, Michael (1 มกราคม 2019). "สิริสิริอยู่ในมือฉัน: ใครคือผู้ที่ยุติธรรมที่สุดในแผ่นดินเกี่ยวกับการตีความภาพประกอบและผลกระทบของปัญญาประดิษฐ์" เปิดโลกทัศน์ธุรกิจ 62 (1): 15–25. ดอย : 10.1016 / j.bushor.2018.08.004 .
  78. ^ Domingos 2015 , บทที่ 5
  79. ^ Domingos 2015 , บทที่ 7
  80. ^ Lindenbaum เมตร Markovitch เอส & Rusakov, D. (2004) การสุ่มตัวอย่างแบบเลือกสำหรับลักษณนามเพื่อนบ้านที่ใกล้ที่สุด แมชชีนเลิร์นนิง, 54 (2), 125–152
  81. ^ Domingos 2015 , บทที่ 1
  82. ^ a b Intractability and efficiency and the Combinatorial Explosion : * Russell & Norvig 2003 , pp. 9, 21–22
  83. ^ Domingos 2015 , บทที่ 2 บทที่ 3
  84. ^ ฮาร์ท, PE; Nilsson, NJ; ราฟาเอลบี. (2515). "การแก้ไขเป็น" พื้นฐานอย่างเป็นทางการสำหรับการกำหนดเส้นทางต้นทุนขั้นต่ำแบบฮิวริสติก" " จดหมายข่าว SIGART (37): 28–29 ดอย : 10.1145 / 1056777.1056779 . S2CID  6386648
  85. ^ Domingos 2015 , บทที่ 2 บทที่ 4 บทที่ 6
  86. ^ "คอมพิวเตอร์เครือข่ายประสาทเทียมสามารถเรียนรู้จากประสบการณ์ได้หรือไม่และถ้าเป็นเช่นนั้นพวกเขาจะกลายเป็นสิ่งที่เราเรียกว่า 'สมาร์ท' ได้หรือไม่" . วิทยาศาสตร์อเมริกัน 2018. สืบค้นเมื่อ 25 มีนาคม 2018 . สืบค้นเมื่อ24 มีนาคม 2561 .
  87. ^ Domingos 2015บทที่ 6 บทที่ 7
  88. ^ Domingos 2015พี 286.
  89. ^ "การเปลี่ยนแปลงพิกเซลเดี่ยว fools โปรแกรม AI" ข่าวบีบีซี . 3 พฤศจิกายน 2560. สืบค้นเมื่อ 22 มีนาคม 2561 . สืบค้นเมื่อ12 มีนาคม 2561 .
  90. ^ "เอไอมีปัญหาอาการประสาทหลอนที่พิสูจน์ยากที่จะแก้ไข" WIRED 2561. สืบค้นเมื่อวันที่ 12 มีนาคม 2018 . สืบค้นเมื่อ12 มีนาคม 2561 .
  91. ^ "การปลูกฝังสามัญสำนึก | DiscoverMagazine.com" . นิตยสารค้นพบ 2017 ที่จัดเก็บจากเดิมในวันที่ 25 มีนาคม 2018 สืบค้นเมื่อ24 มีนาคม 2561 .
  92. ^ เดวิส, เออร์เนสต์; Marcus, Gary (24 สิงหาคม 2558). "การให้เหตุผลแบบสามัญและความรู้ทั่วไปในปัญญาประดิษฐ์" . การติดต่อสื่อสารของพลอากาศเอก 58 (9): 92–103 ดอย : 10.1145 / 2701413 . S2CID  13583137 สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ6 เมษายน 2563 .
  93. ^ Winograd, Terry (มกราคม 2515) “ การเข้าใจภาษาธรรมชาติ”. จิตวิทยาความรู้ความเข้าใจ . 3 (1): 1–191. ดอย : 10.1016 / 0010-0285 (72) 90002-3 .
  94. ^ "ไม่ต้องกังวล: รถยนต์อิสระไม่ได้มาในวันพรุ่งนี้ (หรือปีถัดไป)" AutoWeek 2559. สืบค้นเมื่อ 25 มีนาคม 2561 . สืบค้นเมื่อ24 มีนาคม 2561 .
  95. ^ อัศวินจะ (2017). "บอสตันอาจจะเป็นที่มีชื่อเสียงสำหรับการขับรถที่ไม่ดี แต่มันเป็นสนามทดสอบสำหรับรถที่ตนเองขับรถอย่างชาญฉลาด" รีวิวเทคโนโลยีเอ็มไอที สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ27 มีนาคม 2561 .
  96. ^ Prakken, Henry (31 สิงหาคม 2017). "ปัญหาในการสร้างยานยนต์อิสระให้เป็นไปตามกฎหมายจราจร" . ปัญญาประดิษฐ์และกฎหมาย 25 (3): 341–363 ดอย : 10.1007 / s10506-017-9210-0 .
  97. ^ ก ข ลิเอโต, อันโตนิโอ; เลบีแยร์คริสเตียน; Oltramari, Alessandro (พ.ค. 2018). "ระดับความรู้ในสถาปัตยกรรมองค์ความรู้: ข้อ จำกัด ในปัจจุบันและพัฒนาการที่เป็นไปได้". การวิจัยระบบความรู้ความเข้าใจ . 48 : 39–55. ดอย : 10.1016 / j.cogsys.2017.05.001 . hdl : 2318/1665207 . S2CID  206868967
  98. ^ การแก้ปัญหาการไขปริศนาการเล่นเกมและการหักคะแนน: * Russell & Norvig 2003 , chpt 3–9, * พูล, Mackworth & Goebel 1998 , chpt. 2,3,7,9, * Luger & Stubblefield 2004 , chpt. 3,4,6,8, * ค๊ 1998 , chpt. 7–12
  99. ^ การ ให้เหตุผลที่ไม่แน่นอน: * Russell & Norvig 2003 , pp. 452–644, * Poole, Mackworth & Goebel 1998 , หน้า 345–395, * Luger & Stubblefield 2004 , หน้า 333–381, * Nilsson 1998 , chpt. 19
  100. ^ หลักฐานทางจิตวิทยาของการให้เหตุผลเชิงสัญลักษณ์ย่อย: * Wason & Shapiro (1966)แสดงให้เห็นว่าผู้คนทำปัญหาที่เป็นนามธรรมได้ไม่ดี แต่ถ้าปัญหาได้รับการแก้ไขใหม่เพื่อให้สามารถใช้ปัญญาทางสังคมที่ใช้งานง่ายประสิทธิภาพจะดีขึ้นอย่างมาก (ดูงานคัดเลือกของ Wason ) * Kahneman, Slovic & Tversky (1982)แสดงให้เห็นว่าผู้คนแย่มากในปัญหาเบื้องต้นที่เกี่ยวข้องกับการใช้เหตุผลที่ไม่แน่นอน (ดูรายการอคติทางปัญญาสำหรับหลาย ๆ ตัวอย่าง) * Lakoff & Núñez (2000)แย้งว่าแม้แต่ทักษะของเราในวิชาคณิตศาสตร์ก็ขึ้นอยู่กับความรู้และทักษะที่มาจาก "ร่างกาย" นั่นคือเซ็นเซอร์และทักษะการรับรู้ (ดูว่าคณิตศาสตร์มาจากไหน )
  101. ^ การ แสดงความรู้ : * ACM 1998 , I.2.4, * Russell & Norvig 2003 , หน้า 320–363, * Poole, Mackworth & Goebel 1998 , หน้า 23–46, 69–81, 169–196, 235–277, 281–298, 319–345, * Luger & Stubblefield 2004 , หน้า 227–243, * Nilsson 1998 , chpt. 18
  102. ^ วิศวกรรมความรู้ : * Russell & Norvig 2003 , pp. 260–266, * Poole, Mackworth & Goebel 1998 , หน้า 199–233, * Nilsson 1998 , chpt. ≈17.1–17.4
  103. ^ เป็น ตัวแทนของหมวดหมู่และความสัมพันธ์:เครือข่ายความหมาย ,ลอจิกคำอธิบาย , การสืบทอด (รวมถึงเฟรมและสคริปต์ ): * Russell & Norvig 2003 , หน้า 349–354, * Poole, Mackworth & Goebel 1998 , หน้า 174–177, * Luger & Stubblefield 2004 , หน้า 248–258, * Nilsson 1998 , chpt. 18.3
  104. ^ แทนเหตุการณ์ที่และเวลา:แคลคูลัสสถานการณ์ ,แคลคูลัสเหตุการณ์ ,แคลคูลัสคล่อง (รวมถึงการแก้ปัญหาเฟรม ): *รัสเซลและ Norvig 2003 ., PP 328-341, * Poole, Mackworth & Goebel 1998 , หน้า 281–298, * Nilsson 1998 , chpt. 18.2
  105. ^ แคลคูลัสเชิงสาเหตุ : * Poole, Mackworth & Goebel 1998 , pp. 335–337
  106. ^ เป็น ตัวแทนของความรู้เกี่ยวกับความรู้: แคลคูลัสความเชื่อ,ลอจิกเชิงโมดอล : * Russell & Norvig 2003 , pp. 341–344, * Poole, Mackworth & Goebel 1998 , หน้า 275–277
  107. ^ Sikos, Leslie F. (มิถุนายน 2017). คำอธิบาย Logics ในมัลติมีเดียเหตุผล จาม: สปริงเกอร์. ดอย : 10.1007 / 978-3-319-54066-5 . ISBN 978-3-319-54066-5. S2CID  3180114 สืบค้นเมื่อ 29 สิงหาคม 2560.
  108. ^ Ontology : * Russell & Norvig 2003 , หน้า 320–328
  109. ^ สโมเลียร์สตีเฟ่นดับเบิลยู.; จางหงเจียง (1994). "การจัดทำดัชนีและการดึงข้อมูลวิดีโอตามเนื้อหา" IEEE มัลติมีเดีย 1 (2): 62–72. ดอย : 10.1109 / 93.311653 . S2CID  32710913 .
  110. ^ นอยมันน์แบร์นด์; Möller, Ralf (มกราคม 2551). "การตีความฉากพร้อมลอจิกคำอธิบาย" คอมพิวเตอร์ภาพและการมองเห็น 26 (1): 82–101. ดอย : 10.1016 / j.imavis.2007.08.013 .
  111. ^ Kuperman, GJ; Reichley, RM; Bailey, TC (1 กรกฎาคม 2549). "การใช้ฐานความรู้ทางการค้าสำหรับสนับสนุนการตัดสินใจทางคลินิก: โอกาสอุปสรรคและข้อเสนอแนะ" วารสาร American Medical Informatics Association . 13 (4): 369–371 ดอย : 10.1197 / jamia.M2055 . PMC  1513681 PMID  16622160
  112. ^ MCGARRY, KEN (1 ธันวาคม 2548). "แบบสำรวจมาตรการความน่าสนใจสำหรับการค้นพบความรู้". ความรู้ทบทวนวิศวกรรม 20 (1): 39–61. ดอย : 10.1017 / S0269888905000408 . S2CID  14987656
  113. ^ เบอร์ตินี่, เอ็ม; เดลบิมโบ, เอ; Torniai, C (2549). "คำอธิบายประกอบอัตโนมัติและการดึงข้อมูลลำดับความหมายของวิดีโอโดยใช้มัลติมีเดียออนโทโลยี" MM '06 Proceedings of the 14th ACM international conference on Multimedia . การประชุมนานาชาติ ACM ครั้งที่ 14 เกี่ยวกับมัลติมีเดีย ซานตาบาร์บาร่า: ACM หน้า 679–682
  114. ^ ปัญหาคุณสมบัติ : * McCarthy & Hayes 1969 * Russell & Norvig 2003[ ต้องการหน้า ]ในขณะที่ McCarthy ให้ความสำคัญกับปัญหาในการแสดงการกระทำเชิงตรรกะเป็นหลัก แต่Russell & Norvig 2003 ใช้คำนี้กับปัญหาทั่วไปของการใช้เหตุผลเริ่มต้นในเครือข่ายสมมติฐานอันกว้างขวางที่อยู่ภายใต้ความรู้ทั่วไปทั้งหมดของเรา
  115. ^ การ ให้เหตุผลเริ่มต้นและตรรกะเริ่มต้น ,ตรรกะที่ไม่ใช่เชิงเดี่ยว , การล้อมรอบ ,สมมติฐานโลกปิด ,การลักพาตัว (Poole et al.วางการลักพาตัวภายใต้ "การให้เหตุผลเริ่มต้น" Luger et al.วางสิ่งนี้ไว้ภายใต้ "การให้เหตุผลที่ไม่แน่นอน"): * Russell & Norvig 2003 , หน้า 354–360, * Poole, Mackworth & Goebel 1998 , หน้า 248–256, 323–335, * Luger & Stubblefield 2004 , หน้า 335–363, * Nilsson 1998 , ~ 18.3.3
  116. ^ ความรู้ทั่วไป: * Russell & Norvig 2003 , p. 21, * Crevier 1993 , หน้า 113–114, * Moravec 1988 , p. 13, * Lenat & Guha 1989 (บทนำ)
  117. ^ เดรย์ฟั & เดรย์ฟั 1986
  118. ^ Gladwell 2005
  119. ^ a b ความรู้ของผู้เชี่ยวชาญในฐานะสัญชาตญาณที่เป็นตัวเป็นตน : * Dreyfus & Dreyfus 1986 ( Hubert Dreyfusเป็นนักปรัชญาและนักวิจารณ์ AI ซึ่งเป็นคนกลุ่มแรก ๆ ที่โต้แย้งว่าความรู้ของมนุษย์ที่มีประโยชน์ที่สุดถูกเข้ารหัสแบบสัญลักษณ์ย่อยดูคำวิจารณ์ AI ของ Dreyfus ) * Gladwell 2005 (Gladwell's Blinkเป็นบทนำยอดนิยมเกี่ยวกับการให้เหตุผลและความรู้เชิงสัญลักษณ์ย่อย) * Hawkins & Blakeslee 2005 (Hawkins ระบุว่าความรู้เชิงสัญลักษณ์ย่อยควรเป็นจุดสนใจหลักของการวิจัย AI)
  120. ^ การวางแผน : * ACM 1998 , ~ I.2.8, * Russell & Norvig 2003 , หน้า 375–459, * Poole, Mackworth & Goebel 1998 , หน้า 281–316, * Luger & Stubblefield 2004 , หน้า 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
  121. ^ ทฤษฎีคุณค่าของข้อมูล : * Russell & Norvig 2003 , pp. 600–604
  122. ^ การวางแผนแบบคลาสสิก: * Russell & Norvig 2003 , pp. 375–430, * Poole, Mackworth & Goebel 1998 , หน้า 281–315, * Luger & Stubblefield 2004 , หน้า 314–329, * Nilsson 1998 , chpt. 10.1–2, 22
  123. ^ การวางแผนและดำเนินการในโดเมนที่ไม่ได้กำหนด: การวางแผนตามเงื่อนไข, การตรวจสอบการดำเนินการ, การจำลองแบบและการวางแผนอย่างต่อเนื่อง: * Russell & Norvig 2003 , หน้า 430–449
  124. ^ การวางแผนหลายตัวแทนและพฤติกรรมฉุกเฉิน: * Russell & Norvig 2003 , pp. 449–455
  125. ^ ทัวริง 1950
  126. ^ Solomonoff 1956
  127. ^ a b การเรียนรู้ : * ACM 1998 , I.2.6, * Russell & Norvig 2003 , หน้า 649–788, * Poole, Mackworth & Goebel 1998 , หน้า 397–438, * Luger & Stubblefield 2004 , หน้า 385–542, * Nilsson 1998 , chpt. 3.3, 10.3, 17.5, 20
  128. ^ จอร์แดนมิชิแกน; Mitchell, TM (16 กรกฎาคม 2558). "แมชชีนเลิร์นนิง: แนวโน้มมุมมองและผู้มีโอกาสเป็นลูกค้า" วิทยาศาสตร์ . 349 (6245): 255–260 รหัสไปรษณีย์ : 2015Sci ... 349..255J . ดอย : 10.1126 / science.aaa8415 . PMID  26185243 S2CID  677218 .
  129. ^ Reinforcement learning : * Russell & Norvig 2003 , pp. 763–788* Luger & Stubblefield 2004 , หน้า 442–449
  130. ^ การประมวลผลภาษาธรรมชาติ : * ACM 1998 , I.2.7 * Russell & Norvig 2003 , หน้า 790–831* Poole, Mackworth & Goebel 1998 , หน้า 91–104 * Luger & Stubblefield 2004 , หน้า 591–632
  131. ^ การ ประยุกต์ใช้การประมวลผลภาษาธรรมชาติรวมถึงการดึงข้อมูล (เช่น text mining ) และการแปลด้วยเครื่อง : * Russell & Norvig 2003 , pp. 840–857, * Luger & Stubblefield 2004 , หน้า 623–630
  132. ^ แคมเบรียเอริก; White, Bebo (พ.ค. 2014). "Jumping NLP Curves: การทบทวนการวิจัยการประมวลผลภาษาธรรมชาติ [บทความทบทวน]" IEEE นิตยสารคำนวณหน่วยสืบราชการลับ 9 (2): 48–57. ดอย : 10.1109 / MCI.2014.2307227 . S2CID  206451986
  133. ^ Vincent, James (7 พฤศจิกายน 2019). "OpenAI มีการเผยแพร่ข้อความที่ก่อให้เกิด AI ก็กล่าวว่าเป็นอันตรายเกินไปที่จะหุ้น" The Verge . ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 มิถุนายน 2020 สืบค้นเมื่อ11 มิถุนายน 2563 .
  134. ^ การรับรู้ของเครื่องจักร : * Russell & Norvig 2003 , หน้า 537–581, 863–898* ค๊ 1998 , ~ chpt. 6
  135. ^ การรู้จำเสียง : * ACM 1998 , ~ I.2.7 * Russell & Norvig 2003 , หน้า 568–578
  136. ^ การจดจำวัตถุ : * Russell & Norvig 2003 , pp. 885–892
  137. ^ วิสัยทัศน์คอมพิวเตอร์ : * ACM 1998 , I.2.10 * Russell & Norvig 2003 , หน้า 863–898* ค๊ 1998 , chpt. 6
  138. ^ Robotics : * ACM 1998 , I.2.9, * Russell & Norvig 2003 , หน้า 901–942, * Poole, Mackworth & Goebel 1998 , หน้า 443–460
  139. ^ การเคลื่อนย้ายและกำหนดค่าพื้นที่ : * Russell & Norvig 2003 , pp. 916–932
  140. ^ Tecuci 2012
  141. ^ การทำแผนที่หุ่นยนต์ (การแปลภาษา ฯลฯ ): * Russell & Norvig 2003 , pp. 908–915
  142. ^ กาเดน่า, ซีซาร์; คาร์โลเน่, ลูก้า; คาร์ริลโลเฮนรี่; ลาติฟ, ยาซีร์; สการามุซซ่า, ดาวิเด้; นีร่า, โจเซ่; เรดเอียน; Leonard, John J. (ธันวาคม 2559). "อดีตปัจจุบันและอนาคตของการแปลและการทำแผนที่พร้อมกัน: สู่ยุคการรับรู้ที่แข็งแกร่ง" รายการ IEEE เกี่ยวกับหุ่นยนต์ 32 (6): 1309–1332 arXiv : 1606.05830 รหัสไปรษณีย์ : 2016arXiv160605830C . ดอย : 10.1109 / TRO.2016.2624754 . S2CID  2596787
  143. ^ Moravec 1988พี 15.
  144. ^ Chan, Szu Ping (15 พฤศจิกายน 2558). "นี่คือสิ่งที่จะเกิดขึ้นได้เมื่อหุ่นยนต์ใช้ทั่วโลก" สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้น23 เมษายน 2561 .
  145. ^ “ เฟอร์นิเจอร์อิเกียกับขีด จำกัด ของ AI” . ดิอีโคโนมิสต์ 2018. สืบค้นเมื่อ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
  146. ^ "คิสเมท" . ห้องปฏิบัติการปัญญาประดิษฐ์ของ MIT กลุ่มหุ่นยนต์ฮิวแมนนอยด์ สืบค้นเมื่อ 17 ตุลาคม 2557 . สืบค้นเมื่อ25 ตุลาคม 2557 .
  147. ^ ทอมป์สัน, ดีเร็ก (2018). "หุ่นยนต์จะรับงานอะไร" . มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
  148. ^ Scassellati, Brian (2002). "ทฤษฎีจิตใจสำหรับหุ่นยนต์คล้ายมนุษย์". เขตปกครองตนเองหุ่นยนต์ 12 (1): 13–24. ดอย : 10.1023 / A: 1013298507114 . S2CID 19793  15 .
  149. ^ เฉา, หย่งแคน; หยูเหวินหวู่; เหรินเว่ย; Chen, Guanrong (กุมภาพันธ์ 2556). "ภาพรวมของความคืบหน้าล่าสุดในการศึกษาการประสานงานหลายตัวแทนแบบกระจาย" ธุรกรรมอีอีอีสารสนเทศอุตสาหกรรม 9 (1): 427–438 arXiv : 1207.3231 ดอย : 10.1109 / TII.2012.2219061 . S2CID  9588126
  150. ^ Thro 1993
  151. ^ Edelson 1991
  152. ^ เต๋า & ตาล 2548 .
  153. ^ โปเรีย, Soujanya; แคมเบรียเอริก; Bajpai, ราจีฟ; Hussain, Amir (กันยายน 2017). "การทบทวนการคำนวณเชิงอารมณ์: จากการวิเคราะห์รูปแบบเดียวที่จะฟิวชั่นต่อเนื่อง" ข้อมูลฟิวชั่น 37 : 98–125 ดอย : 10.1016 / j.inffus.2017.02.003 . hdl : 1893/25490 .
  154. ^ อารมณ์และการคำนวณเชิงอารมณ์ : * Minsky 2006
  155. ^ Waddell, Kaveh (2018). "chatbots ได้ป้อนหุบเขาลึกลับ" มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อวันที่ 24 เมษายน 2018 . สืบค้นเมื่อ24 เมษายน 2561 .
  156. ^ เพ็ญนาชิน, ค.; Goertzel, B. (2007). "แนวทางร่วมสมัยสำหรับปัญญาประดิษฐ์ทั่วไป" ปัญญาประดิษฐ์ทั่วไป เทคโนโลยีความรู้ความเข้าใจ เบอร์ลินไฮเดลเบิร์ก: Springer ดอย : 10.1007 / 978-3-540-68677-4_1 . ISBN 978-3-540-23733-4.
  157. ^ ก ข ค โรเบิร์ตส์เจคอบ (2016). "เครื่องคิด: ค้นหาประดิษฐ์" การกลั่น . ฉบับ. 2 ไม่ 2. หน้า 14–23 สืบค้นจากต้นฉบับเมื่อวันที่ 19 สิงหาคม 2018 . สืบค้นเมื่อ20 มีนาคม 2561 .
  158. ^ "ซูเปอร์ฮีโร่แห่งปัญญาประดิษฐ์: อัจฉริยะผู้นี้สามารถตรวจสอบได้หรือไม่" . เดอะการ์เดีย 16 กุมภาพันธ์ 2559. สืบค้นเมื่อ 23 เมษายน 2561 . สืบค้นเมื่อ26 เมษายน 2561 .
  159. ^ Mnih, โวโลดีเมียร์; Kavukcuoglu, โคเรย์; เงินเดวิด; รุสุ, อังเดรย.; เวเนส, โจเอล; เบลล์แมร์มาร์คจี; เกรฟส์อเล็กซ์; Riedmiller, มาร์ติน; Fidjeland, Andreas K. ; ออสตรอฟสกี้, เฟรด; ปีเตอร์เซน, สติก; บีตตี้, ชาร์ลส์; ซาดิค, อาเมียร์; อันโตกลู, อิโออันนิส; คิงเฮเลน; คุมารัน, ดาร์ชาน; Wierstra, Daan; Legg, เชน; Hassabis, Demis (26 กุมภาพันธ์ 2558). "การควบคุมระดับมนุษย์ผ่านการเรียนรู้แบบเสริมกำลังเชิงลึก". ธรรมชาติ . 518 (7540): 529–533 รหัสไปรษณีย์ : 2015Natur.518..529M . ดอย : 10.1038 / nature14236 . PMID  25719670 S2CID  205242740
  160. ^ ตัวอย่างเอียน (14 มีนาคม 2560). "DeepMind ของ Google ทำให้โปรแกรม AI ที่สามารถเรียนรู้ได้เหมือนมนุษย์" เดอะการ์เดีย สืบค้นเมื่อ 26 เมษายน 2018 . สืบค้นเมื่อ26 เมษายน 2561 .
  161. ^ "จากการไม่ทำงานไปสู่ระบบเครือข่ายประสาทเทียม" . ดิอีโคโนมิสต์ 2559. สืบค้นเมื่อ 31 ธันวาคม 2559 . สืบค้นเมื่อ26 เมษายน 2561 .
  162. ^ รัสเซลและ Norvig 2009บทที่ 27 ไอ: ปัจจุบันและอนาคต
  163. ^ Domingos 2015บทที่ 9 ชิ้นส่วนของจิ๊กซอว์ฤดูใบไม้ร่วงเข้าไปในสถานที่
  164. ^ a b ข้อโต้แย้งของสมองเทียม : AI ต้องการการจำลองการทำงานของสมองมนุษย์ * Russell & Norvig 2003 , p. 957* Crevier 1993 , หน้า 271 และ 279 มีคนไม่กี่คนที่โต้แย้งในรูปแบบหนึ่ง: * Moravec 1988 * Kurzweil 2005 , p. 262 * Hawkins & Blakeslee 2005รูปแบบที่รุนแรงที่สุดของการโต้แย้งนี้ (สถานการณ์การเปลี่ยนสมอง) ถูกนำมาใช้โดยClark Glymourในช่วงกลางทศวรรษ 1970 และได้รับการสัมผัสจากZenon PylyshynและJohn Searleในปี 1980
  165. ^ เกิร์ตเซล, เบ็น; เหลียน, Ruiting; อาเรลอิตามาร์; เดอการิส, ฮิวโก้; Chen, Shuo (ธันวาคม 2553). "การสำรวจโลกของโครงการสมองเทียมตอนที่ 2: สถาปัตยกรรมความรู้ความเข้าใจที่ได้รับแรงบันดาลใจทางชีวภาพ" Neurocomputing 74 (1–3): 30–49. ดอย : 10.1016 / j.neucom.2010.08.012 .
  166. ^ ค๊ 2526น. 10.
  167. ^ สารตั้งต้นของ AI: * McCorduck 2004 , หน้า 51–107* Crevier 1993 , หน้า 27–32 * Russell & Norvig 2003 , หน้า 15, 940* Moravec 1988หน้า 3
  168. ^ Haugeland 1985 , PP. 112-117
  169. ^ Cognitive Simulation, Newellและ Simon , AI ที่ CMU (จากนั้นเรียกว่า Carnegie Tech ): * McCorduck 2004 , หน้า 139–179, 245–250, 322–323 (EPAM)* Crevier 1993 , หน้า 145–149
  170. ^ ทะยาน (ประวัติศาสตร์): * McCorduck 2004 , หน้า 450–451* Crevier 1993 , หน้า 258–263
  171. ^ แมคคาร์และเอไอวิจัยที่เรือและประเทศศรีลังกา : * McCorduck 2004 ., PP 251-259* Crevier 1993
  172. ^ การวิจัย AI ที่เอดินบะระและในฝรั่งเศสกำเนิด Prolog : * Crevier 1993 , pp. 193–196 * Howe 1994
  173. ^ AI ที่ MITภายใต้ Marvin Minskyในปี 1960: * McCorduck 2004 , pp. 259–305* Crevier 1993 , หน้า 83–102, 163–176 * Russell & Norvig 2003 , p. 19
  174. ^ Cyc : * McCorduck 2004 , p. 489ซึ่งเรียกสิ่งนี้ว่า "องค์กรที่ไร้ความปราณี " * Crevier 1993 , pp. 239–243 * Russell & Norvig 2003 , p. 363−365* Lenat & Guha 1989
  175. ^ การปฏิวัติความรู้: * McCorduck 2004 , หน้า 266–276, 298–300, 314, 421* Russell & Norvig 2003 , หน้า 22–23
  176. ^ เฟรดเดอริค, เฮย์ส - รอ ธ ; วิลเลียมเมอร์เรย์; ลีโอนาร์ดอเดลแมน “ ระบบผู้เชี่ยวชาญ”. AccessScience ดอย : 10.1036 / 1097-8542.248550 .
  177. ^ แนวทางที่เป็นตัวเป็นตนสำหรับ AI: * McCorduck 2004 , pp. 454–462* Brooks 1990 * Moravec 1988
  178. ^ เก่งและคณะ 2001
  179. ^ Lungarella และคณะ 2003
  180. ^ Asada et al. 2552 .
  181. ^ Oudeyer 2010
  182. ^ Revival of connectionism : * Crevier 1993 , pp.214–215 * Russell & Norvig 2003 , p. 25
  183. ^ Computational intelligence * IEEE Computational Intelligence Society สืบค้นเมื่อ 9 พฤษภาคม 2008 ที่ Wayback Machine
  184. ^ ฮัทสัน, แมทธิว (16 กุมภาพันธ์ 2018). "ปัญญาประดิษฐ์ใบหน้าวิกฤตการทำซ้ำ" วิทยาศาสตร์ . หน้า 725–726 รหัสไปรษณีย์ : 2018Sci ... 359..725H . ดอย : 10.1126 / science.359.6377.725 . สืบค้นเมื่อ 29 เมษายน 2018 . สืบค้นเมื่อ28 เมษายน 2561 .
  185. ^ Norvig 2012
  186. ^ แลงลีย์ 2011
  187. ^ แคทซ์ 2012
  188. ^ ตัวแทนชาญฉลาดกระบวนทัศน์: *รัสเซลและ Norvig 2003 ., PP 27, 32-58, 968-972* Poole, Mackworth & Goebel 1998 , pp. 7–21 * Luger & Stubblefield 2004 , pp. 235–240 * Hutter 2005 , pp. 125–126 คำจำกัดความที่ใช้ในบทความนี้ในแง่ของเป้าหมายการกระทำการรับรู้และสิ่งแวดล้อม , สืบเนื่องมาจากRussell & Norvig (2003). คำจำกัดความอื่น ๆ ยังรวมถึงความรู้และการเรียนรู้เป็นเกณฑ์เพิ่มเติม
  189. ^ สถาปัตยกรรมตัวแทน ,ระบบอัจฉริยะไฮบริด : *รัสเซลและ Norvig (2003 ., PP 27, 932, 970-972)* ค๊ (1998 , chpt. 25)
  190. ^ ระบบควบคุมตามลำดับชั้น : * Albus 2002
  191. ^ ลิเอโต, อันโตนิโอ; Bhatt, Mehul; โอลตรามารี, อเลสซานโดร; Vernon, David (พ.ค. 2018). "บทบาทของสถาปัตยกรรมทางปัญญาในปัญญาประดิษฐ์ทั่วไป". การวิจัยระบบความรู้ความเข้าใจ . 48 : 1–3. ดอย : 10.1016 / j.cogsys.2017.08.003 . hdl : 2318/1665249 . S2CID  36189683
  192. ^ a b Russell & Norvig 2009 , p. 1.
  193. ^ ก ข กระดาษสีขาว: ในปัญญาประดิษฐ์ - วิธียุโรปเพื่อความเป็นเลิศและความไว้วางใจ (PDF) บรัสเซลส์: คณะกรรมาธิการยุโรป 2020 น. 1.จัดเก็บ (PDF)จากเดิมในวันที่ 20 กุมภาพันธ์ 2020 สืบค้นเมื่อ20 กุมภาพันธ์ 2563 .
  194. ^ "AI ตั้งค่าให้เกินกำลังสมองของมนุษย์" . ซีเอ็นเอ็น . 9 สิงหาคม 2549. สืบค้นเมื่อ 19 กุมภาพันธ์ 2551.
  195. ^ การใช้ AI เพื่อทำนายความล่าช้าของเที่ยวบิน เก็บถาวรเมื่อวันที่ 20 พฤศจิกายน 2018 ที่ Wayback Machine , Ishti.org
  196. ^ เอ็น. Aletras; ง. Tsarapatsanis; ง. Preotiuc-Pietro; V. Lampos (2559). "การคาดการณ์การตัดสินของศาลของศาลสิทธิมนุษยชนยุโรป: มุมมองของการประมวลผลภาษาธรรมชาติ" PeerJ วิทยาการคอมพิวเตอร์ . 2 : e93 ดอย : 10.7717 / peerj-cs.93 .
  197. ^ "นักเศรษฐศาสตร์อธิบาย: ทำไม บริษัท ซ้อนเข้าไปในปัญญาประดิษฐ์" ดิอีโคโนมิสต์ 31 มีนาคม 2559. สืบค้นเมื่อวันที่ 8 พฤษภาคม 2559 . สืบค้นเมื่อ19 พฤษภาคม 2559 .
  198. ^ Lohr, Steve (28 กุมภาพันธ์ 2559). "สัญญาของปัญญาประดิษฐ์ในปูมขั้นตอนเล็ก ๆ" นิวยอร์กไทม์ส สืบค้นเมื่อ 29 กุมภาพันธ์ 2559 . สืบค้นเมื่อ29 กุมภาพันธ์ 2559 .
  199. ^ Frangoul, Anmar (14 มิถุนายน 2019). "ธุรกิจแคลิฟอร์เนียใช้ AI จะเปลี่ยนวิธีที่เราคิดเกี่ยวกับการจัดเก็บพลังงาน" ซีเอ็นบีซี ที่เก็บถาวรจากเดิมเมื่อวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ5 พฤศจิกายน 2562 .
  200. ^ Wakefield, Jane (15 มิถุนายน 2559). "โซเชียลมีเดีย 'เหนือกว่าทีวี' เป็นแหล่งข่าวคนรุ่นใหม่" . ข่าวบีบีซี . สืบค้นเมื่อ 24 มิถุนายน 2559.
  201. ^ Smith, Mark (22 กรกฎาคม 2559). "แล้วคุณคิดว่าคุณเลือกที่จะอ่านบทความนี้หรือไม่" . ข่าวบีบีซี . สืบค้นเมื่อ 25 กรกฎาคม 2559.
  202. ^ บราวน์ไอลีน "ครึ่งหนึ่งของชาวอเมริกันที่ไม่เชื่อข่าว deepfake สามารถกำหนดเป้าหมายได้ทางออนไลน์" ZDNet ที่เก็บถาวรจากเดิมเมื่อวันที่ 6 พฤศจิกายน 2019 สืบค้นเมื่อ3 ธันวาคม 2562 .
  203. ^ Zola, Andrew (12 เมษายน 2019). "เตรียมสัมภาษณ์: 40 คำถามปัญญาประดิษฐ์" บล็อก Springboard
  204. ^ การทดสอบทัวริง :
    สิ่งพิมพ์ต้นฉบับของทัวริง: * Turing 1950อิทธิพลทางประวัติศาสตร์และผลกระทบทางปรัชญา: * Haugeland 1985 , pp. 6–9 * Crevier 1993 , p. 24 * McCorduck 2004 , หน้า 70–71* Russell & Norvig 2003 , หน้า 2–3 และ 948
  205. ^ ข้อเสนอของดาร์ทเมาท์: * McCarthy et al. 1955 (ข้อเสนอเดิม) * Crevier 1993 , p. 49 (ความสำคัญทางประวัติศาสตร์)
  206. ^ ทางกายภาพระบบสัญลักษณ์สมมติฐาน: * Newell และไซมอน 1976พี 116 * McCorduck 2004หน้า 153* รัสเซลและนอร์วิก 2003 , p. 18
  207. ^ เดรย์ฟั 1992พี 156.
  208. ^ Dreyfus วิจารณ์ปัญญาประดิษฐ์ : * Dreyfus 1972 , Dreyfus & Dreyfus 1986 * Crevier 1993 , pp. 120–132 * McCorduck 2004 , หน้า 211–239* Russell & Norvig 2003 , หน้า 950–952,
  209. ^ Gödel 1951 : ในการบรรยายนี้ Kurt Gödelใช้ทฤษฎีบทที่ไม่สมบูรณ์เพื่อให้ได้มาซึ่งความแตกแยกดังต่อไปนี้: (a) จิตใจของมนุษย์ไม่ใช่เครื่องจักร จำกัด ที่สอดคล้องกันหรือ (b) มีสมการไดโอแฟนไทน์ซึ่งไม่สามารถตัดสินใจได้ว่ามีวิธีแก้ปัญหาอยู่หรือไม่ . Gödelพบว่า (b) ไม่น่าเชื่อและดูเหมือนว่าจะเชื่อว่าจิตใจของมนุษย์ไม่เทียบเท่ากับเครื่องจักรที่ จำกัด กล่าวคือพลังของมันเกินกว่าเครื่องจักรที่ จำกัด ใด ๆ เขาจำได้ว่านี่เป็นเพียงการคาดเดาเนื่องจากไม่มีใครหักล้างได้ (b) กระนั้นเขาก็ถือว่าข้อสรุปที่ไม่ลงรอยกันนั้นเป็น "ข้อเท็จจริงบางประการ"
  210. ^ คำคัดค้านทางคณิตศาสตร์: * Russell & Norvig 2003 , p. 949* McCorduck 2004 , หน้า 448–449การคัดค้านทางคณิตศาสตร์: * Lucas 1961 * Penrose 1989หักล้างข้อโต้แย้งทางคณิตศาสตร์: * Turing 1950ภายใต้ "(2) The Mathematical Objection" * Hofstadter 1979 ความเป็นมา: * Gödel 1931, Church 1936, Kleene 1935, Turing 1937
  211. ^ Graham Oppy (20 มกราคม 2558). "ทฤษฎีความไม่สมบูรณ์ของGödel" . สารานุกรมปรัชญาสแตนฟอร์ด . สืบค้นเมื่อ 22 เมษายน 2559 . สืบค้นเมื่อ27 เมษายน 2559 . อย่างไรก็ตามข้อโต้แย้งต่อต้านกลไกของGödelianเหล่านี้เป็นปัญหาและมีความเห็นเป็นเอกฉันท์ว่าพวกเขาล้มเหลว
  212. ^ สจวร์ตเจรัสเซล ; ปีเตอร์นอร์วิก (2010). "26.1.2: รากฐานทางปรัชญา / AI ที่อ่อนแอ: เครื่องจักรสามารถกระทำอย่างชาญฉลาดได้หรือไม่ / การคัดค้านทางคณิตศาสตร์" ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (ฉบับที่ 3) Upper Saddle River, นิวเจอร์ซีย์: Prentice Hall ISBN 978-0-13-604259-4. แม้ว่าเราจะให้สิทธิ์ว่าคอมพิวเตอร์มีข้อ จำกัด ในสิ่งที่สามารถพิสูจน์ได้ แต่ก็ไม่มีหลักฐานว่ามนุษย์มีภูมิคุ้มกันจากข้อ จำกัด เหล่านั้น
  213. ^ มาร์คโคลีวาน ความรู้เบื้องต้นเกี่ยวกับปรัชญาคณิตศาสตร์ สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ , 2012 จาก 2.2.2 'ความสำคัญทางปรัชญาของผลลัพธ์ที่ไม่สมบูรณ์ของGödel': "ภูมิปัญญาที่ได้รับการยอมรับ (ซึ่งฉันเห็นด้วย) คือการโต้แย้งของลูคัส - เพนโรสล้มเหลว"
  214. ^ อิโฟเฟน, รอน; Kritikos, Mihalis (3 มกราคม 2019). “ การควบคุมปัญญาประดิษฐ์และหุ่นยนต์: จริยธรรมโดยการออกแบบในสังคมดิจิทัล”. สังคมศาสตร์ร่วมสมัย . 16 (2): 170–184. ดอย : 10.1080 / 21582041.2018.1563803 . ISSN  2158-2041 S2CID  59298502 .
  215. ^ "จริยธรรม AI เรียนรู้สิทธิมนุษยชนกรอบ" เสียงของอเมริกา ที่เก็บถาวรจากเดิมเมื่อวันที่ 11 พฤศจิกายน 2019 สืบค้นเมื่อ10 พฤศจิกายน 2562 .
  216. ^ Crevier 1993 , PP. 132-144
  217. ^ คำวิจารณ์ของ AI ของ Joseph Weizenbaum : * Weizenbaum 1976 * Crevier 1993 , pp.132–144 * McCorduck 2004 , pp. 356–373* รัสเซลและนอร์วิก 2003 , p. 961Weizenbaum (นักวิจัย AI ผู้พัฒนาโปรแกรมแชทบอทตัวแรกELIZA ) โต้แย้งในปี 2519 ว่าการใช้ปัญญาประดิษฐ์ในทางที่ผิดมีศักยภาพในการลดคุณค่าของชีวิตมนุษย์
  218. ^ วอลลาคเวนเดลล์ (2010). เครื่องคุณธรรม . สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด
  219. ^ วัล 2010 , PP. 37-54
  220. ^ วัล 2010 , PP. 55-73
  221. ^ Wallach 2010 , "บทนำ".
  222. ^ a b Michael Anderson และ Susan Leigh Anderson (2011), Machine Ethics, Cambridge University Press
  223. ^ ก ข “ จรรยาบรรณของเครื่องจักร” . aaai.org . ที่เก็บถาวรจากเดิมเมื่อวันที่ 29 พฤศจิกายน 2014
  224. ^ รูบินชาร์ลส์ (ฤดูใบไม้ผลิปี 2546) "ปัญญาประดิษฐ์และธรรมชาติของมนุษย์" . แอตแลนติใหม่ 1 : 88–100 สืบค้นจากต้นฉบับเมื่อ 11 มิถุนายน 2555.
  225. ^ Brooks, Rodney (10 พฤศจิกายน 2557). "ปัญญาประดิษฐ์เป็นเครื่องมือที่ไม่เป็นภัยคุกคาม" สืบค้นจากต้นฉบับเมื่อ 12 พฤศจิกายน 2557.
  226. ^ "สตีเฟนฮอว์คิง Elon Musk และบิลเกตส์เตือนเกี่ยวกับปัญญาประดิษฐ์" ผู้สังเกตการณ์ . 19 สิงหาคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  227. ^ ชาลเมอร์สเดวิด (1995) “ เผชิญหน้ากับปัญหาอย่างมีสติ” . วารสารศึกษาสติ . 2 (3): 200–219. สืบค้นจากต้นฉบับเมื่อวันที่ 8 มีนาคม 2548 . สืบค้นเมื่อ11 ตุลาคม 2561 .ดูลิงค์นี้ เก็บไว้เมื่อ 8 เมษายน 2011 ที่Wayback Machine
  228. ^ Horst, Steven , (2005) "The Computational Theory of Mind" เก็บถาวรเมื่อ 11 กันยายน 2018 ที่ Wayback Machineในสารานุกรมปรัชญาสแตนฟอร์ด
  229. ^ เซิล 1980พี 1.
  230. ^ เซิลร์ห้องจีนอาร์กิวเมนต์: *เซิล 1980 การนำเสนอดั้งเดิมของ Searle เกี่ยวกับการทดลองทางความคิด *เซิร์ล 1999 . อภิปราย: * Russell & Norvig 2003 , pp. 958–960* McCorduck 2004 , หน้า 443–445* Crevier 1993 , หน้า 269–271
  231. ^ สิทธิของหุ่นยนต์ : * Russell & Norvig 2003 , p. 964การคลอดก่อนกำหนดของ: * Henderson 2007ในนิยาย: * McCorduck (2004 , pp.190–25)กล่าวถึงFrankensteinและระบุประเด็นด้านจริยธรรมที่สำคัญเป็นความโอหังทางวิทยาศาสตร์และความทุกข์ทรมานของสัตว์ประหลาดเช่นสิทธิหุ่นยนต์
  232. ^ "หุ่นยนต์สามารถเรียกร้องสิทธิตามกฎหมาย" ข่าวบีบีซี . 21 ธันวาคม 2549. สืบค้นเมื่อ 15 ตุลาคม 2562 . สืบค้นเมื่อ3 กุมภาพันธ์ 2554 .
  233. ^ อีแวนส์วู้ดดี้ (2558). "สิทธิหลังมนุษย์: มิติของโลกทรานส์มนุษย์" . Teknokultura . 12 (2). ดอย : 10.5209 / rev_TK.2015.v12.n2.49072 .
  234. ^ Maschafilm "เนื้อหา: Plug & Pray ฟิล์ม - ปัญญาประดิษฐ์ - หุ่นยนต์ -" plugandpray-film.de . สืบค้นจากต้นฉบับเมื่อวันที่ 12 กุมภาพันธ์ 2559.
  235. ^ โอโมฮันโดรสตีฟ (2008). ธรรมชาติของตัวเองปรับปรุงปัญญาประดิษฐ์ นำเสนอและเผยแพร่ในการประชุม Singularity Summit ปี 2007 ที่ซานฟรานซิสโก
  236. ^ a b c เอกฐานทางเทคโนโลยี : * Vinge 1993 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
  237. ^ Transhumanism : * Moravec 1988 * Kurzweil 2005 * Russell & Norvig 2003 , p. 963
  238. ^ AI เป็นวิวัฒนาการ: * Edward Fredkinอ้างถึงใน McCorduck (2004 , หน้า 401). * บัตเลอร์ 1863 * Dyson 1998
  239. ^ "หุ่นยนต์และปัญญาประดิษฐ์" . www.igmchicago.org . เก็บถาวรไปจากเดิมในวันที่ 1 พฤษภาคม 2019 สืบค้นเมื่อ3 กรกฎาคม 2562 .
  240. ^ "การคำนวณขนาดของรางวัล: PwC ทั่วโลก AI ศึกษาการใช้ประโยชน์จากการปฏิวัติ AI" (PDF) สืบค้นเมื่อ11 พฤศจิกายน 2563 .
  241. ^ E McGaughey 'หุ่นยนต์จะทำให้งานของคุณเป็นไปโดยอัตโนมัติหรือไม่? การจ้างงานเต็มรูปแบบรายได้ขั้นพื้นฐานและประชาธิปไตยทางเศรษฐกิจ '(2018) SSRN ตอนที่ 2 (3) เก็บถาวร 24 พฤษภาคม 2018 ที่ Wayback Machine
  242. ^ "ระบบอัตโนมัติและความวิตกกังวล" . ดิอีโคโนมิสต์ 9 พฤษภาคม 2558. สืบค้นเมื่อ 12 มกราคม 2561 . สืบค้นเมื่อ13 มกราคม 2561 .
  243. ^ Lohr, Steve (2017). "หุ่นยนต์จะใช้งาน แต่ไม่เป็นอย่างที่บางคนกลัวรายงานใหม่ Says" นิวยอร์กไทม์ส สืบค้นจากต้นฉบับเมื่อวันที่ 14 มกราคม 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
  244. ^ เฟรย์, คาร์ลเบเนดิกต์; Osborne, Michael A (1 มกราคม 2017). "อนาคตของการจ้างงาน: งานมีความอ่อนไหวต่อการใช้คอมพิวเตอร์เพียงใด". พยากรณ์เทคโนโลยีและการเปลี่ยนแปลงทางสังคม 114 : 254–280 CiteSeerX  10.1.1.395.416 ดอย : 10.1016 / j.techfore.2016.08.019 . ISSN  0040-1625
  245. ^ Arntz เมลานีเทอร์รี่เกรกอรีและอู Zierahn "ความเสี่ยงของระบบอัตโนมัติสำหรับงานในประเทศ OECD: การวิเคราะห์เปรียบเทียบ" เอกสารการทำงานด้านสังคมการจ้างงานและการย้ายถิ่นของ OECD 189 (2016). น. 33.
  246. ^ Mahdawi, Arwa (26 มิถุนายน 2017). "สิ่งที่งานจะยังคงอยู่ในรอบ 20 ปีอ่านนี้เพื่อเตรียมความพร้อมในอนาคตของคุณ" เดอะการ์เดียน . สืบค้นจากต้นฉบับเมื่อวันที่ 14 มกราคม 2018 . สืบค้นเมื่อ13 มกราคม 2561 .
  247. ^ Simon, Matt (1 เมษายน 2019). "แอนดรูยางของประธานาธิบดีเสนอราคาดังนั้นศตวรรษที่ 21 มาก" อินเทอร์เน็ตแบบใช้สาย ที่เก็บถาวรจากเดิมเมื่อวันที่ 24 มิถุนายน 2019 สืบค้นเมื่อ2 พฤษภาคม 2562 - ทาง www.wired.com.
  248. ^ "ผู้เชี่ยวชาญห้าแบ่งปันสิ่งที่พวกเขากลัวมากที่สุดเกี่ยวกับเอไอ" 5 กันยายน 2018. เก็บจากต้นฉบับเมื่อวันที่ 8 ธันวาคม 2019 . สืบค้นเมื่อ8 ธันวาคม 2562 .
  249. ^ Russel จวร์ต. ดาเนียลดิวอี้และแม็กซ์เท็กมาร์ก ลำดับความสำคัญของการวิจัยเพื่อปัญญาประดิษฐ์ที่แข็งแกร่งและเป็นประโยชน์ นิตยสาร AI 36: 4 (2558). 8 ธันวาคม 2559.
  250. ^ "ความเห็น: ข่าวร้ายปัญญาประดิษฐ์ลำเอียง" . CNA 12 มกราคม 2562. เก็บถาวรจากต้นฉบับวันที่ 12 มกราคม 2562 . สืบค้นเมื่อ19 มิถุนายน 2563 .
  251. ^ Jeff Larson, Julia Angwin (23 พฤษภาคม 2559). "วิธีการที่เราวิเคราะห์ COMPAS การกระทำผิดซ้ำขั้นตอนวิธีการ" ProPublica สืบค้นจากต้นฉบับเมื่อ 29 เมษายน 2019 . สืบค้นเมื่อ19 มิถุนายน 2563 .
  252. ^ รอว์ลินสัน, เควิน (29 มกราคม 2558). "ไมโครซอฟท์บิลเกตส์ยืนยัน AI เป็นภัยคุกคาม" ข่าวบีบีซี . สืบค้นเมื่อ 29 มกราคม 2558 . สืบค้นเมื่อ30 มกราคม 2558 .
  253. ^ Holley, Peter (28 มกราคม 2558). "บิลเกตส์เกี่ยวกับอันตรายของปัญญาประดิษฐ์: 'ผมไม่เข้าใจว่าทำไมคนบางคนไม่ได้กังวล' " วอชิงตันโพสต์ ISSN  0190-8286 สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  254. ^ Gibbs, Samuel (27 ตุลาคม 2557). "Elon Musk: ปัญญาประดิษฐ์เป็นภัยคุกคามอัตถิภาวใหญ่ที่สุดของเรา" เดอะการ์เดียน . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  255. ^ Churm, Philip Andrew (14 พฤษภาคม 2019). "โนอาห์ Yuval Harari พูดการเมืองเทคโนโลยีและการย้ายถิ่น" Euronews สืบค้นเมื่อ15 พฤศจิกายน 2563 .
  256. ^ Cellan-Jones, Rory (2 ธันวาคม 2557). "สตีเฟนฮอว์คิงเตือนปัญญาประดิษฐ์จะจบมนุษยชาติ" ข่าวบีบีซี . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  257. ^ Bostrom, Nick (2015). "จะเกิดอะไรขึ้นเมื่อคอมพิวเตอร์ของเราฉลาดกว่าที่เป็นอยู่" . TED (ประชุม) ที่เก็บถาวรจากเดิมเมื่อวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ30 มกราคม 2563 .
  258. ^ ก ข Russell, Stuart (8 ตุลาคม 2019). มนุษย์ที่รองรับ: ปัญญาประดิษฐ์และปัญหาที่เกิดจากการควบคุม สหรัฐอเมริกา: ไวกิ้ง ISBN 978-0-525-55861-3. OCLC  1083694322
  259. ^ โพสต์วอชิงตัน "ไททันส์เทคเหมือน Elon Musk มีการใช้จ่าย $ 1 พันล้านเพื่อให้คุณประหยัดจากจุดสิ้นสุด" สืบค้นเมื่อ 7 มิถุนายน 2559.
  260. ^ มึลเลอร์, วินเซนต์ซี; Bostrom, Nick (2014). "ความคืบหน้าในอนาคตในปัญญาประดิษฐ์: การสำรวจความคิดเห็นของผู้เชี่ยวชาญ" (PDF) เรื่อง AI 1 (1): 9–11. ดอย : 10.1145 / 2639475.2639478 . S2CID  8510016 . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 15 มกราคม 2559
  261. ^ "Oracle CEO Mark Hurd เห็นไม่มีเหตุผลที่จะต้องกลัว ERP AI" SearchERP ที่เก็บถาวรจากเดิมเมื่อวันที่ 6 พฤษภาคม 2019 สืบค้นเมื่อ6 พฤษภาคม 2562 .
  262. ^ "Mark Zuckerberg ตอบสนองต่อความหวาดระแวง Elon Musk เกี่ยวกับไอ: 'AI จะไป ... ให้ความช่วยเหลือชุมชนของเราปลอดภัย. ' " ภายในธุรกิจ 25 พฤษภาคม 2018 สืบค้นจากต้นฉบับเมื่อวันที่ 6 พฤษภาคม 2019 . สืบค้นเมื่อ6 พฤษภาคม 2562 .
  263. ^ "บริษัท ปัญญาประดิษฐ์ลึกลับ Elon Musk การลงทุนในการพัฒนาเปลี่ยนแปลงเกมคอมพิวเตอร์สมาร์ท" ภายในเทค สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  264. ^ 2015a คลาร์ก
  265. ^ "Elon Musk บริจาค $ 10M ของตัวเองเพื่อเงินปัญญาประดิษฐ์งานวิจัย" บริษัท ได้อย่างรวดเร็ว 15 มกราคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  266. ^ "ปัญญาประดิษฐ์เป็นภัยคุกคามต่อมนุษยชาติจริงหรือ" . แถลงการณ์ของนักวิทยาศาสตร์ปรมาณู 9 สิงหาคม 2558. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  267. ^ "คดีหุ่นยนต์นักฆ่าจากผู้ชายจริงทำงานกับปัญญาประดิษฐ์" Fusion.net สืบค้นจากต้นฉบับเมื่อวันที่ 4 กุมภาพันธ์ 2559 . สืบค้นเมื่อ31 มกราคม 2559 .
  268. ^ "Will ปัญญาประดิษฐ์ทำลายความเป็นมนุษย์ที่นี่ 5 เหตุผลที่ไม่ได้มีความกังวล" Vox 22 สิงหาคม 2557. สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  269. ^ เบอร์รี่ฮิลล์, เจมี่; เฮ้ง, เควินก๊ก; โคลเกอร์ร็อบ; McBride, Keegan (2019). สวัสดีโลก: ปัญญาประดิษฐ์และการใช้งานในภาครัฐ (PDF) ปารีส: OECD Observatory of Public Sector Innovation เก็บถาวร (PDF)จากเดิมในวันที่ 20 ธันวาคม 2019 สืบค้นเมื่อ9 สิงหาคม 2563 .
  270. ^ บาร์ฟิลด์วูดโรว์; ปากัลโล, อูโก (2018). คู่มือการวิจัยกฎหมายปัญญาประดิษฐ์ . Cheltenham, สหราชอาณาจักร ISBN 978-1-78643-904-8. OCLC  1039480085
  271. ^ Law Library of Congress (US). Global Legal Research Directorate ซึ่งออกหน่วยงาน กฎระเบียบของปัญญาประดิษฐ์ในเขตอำนาจศาลที่เลือก LCCN  2019668143 OCLC  1110727808
  272. ^ เวิร์ทซ์เบิร์นด.; ไวเยอร์ ม.ค. ค.; Geyer, Carolin (24 กรกฎาคม 2018). "ปัญญาประดิษฐ์และภาครัฐการใช้งานและความท้าทาย" วารสารนานาชาติรัฐประศาสนศาสตร์ . 42 (7): 596–615 ดอย : 10.1080 / 01900692.2018.1498103 . ISSN  0190-0692 S2CID  158829602 . ที่เก็บถาวรจากเดิมเมื่อวันที่ 18 สิงหาคม 2020 สืบค้นเมื่อ22 สิงหาคม 2563 .
  273. ^ Buiten, Miriam C (2019). "ต่อระเบียบอัจฉริยะประดิษฐ์" European Journal of Risk Regulation . 10 (1): 41–59. ดอย : 10.1017 / err.2019.8 . ISSN  1867-299X
  274. ^ โซตาลา, กาจ; Yampolskiy, Roman V (19 ธันวาคม 2557). "การตอบสนองต่อความเสี่ยง AGI ภัยพิบัติ: การสำรวจ" Physica Scripta . 90 (1): 018001. ดอย : 10.1088 / 0031-8949 / 90/1/018001 . ISSN  0031-8949
  275. ^ Buttazzo, G. (กรกฎาคม 2544). "จิตสำนึกเทียม: ยูโทเปียหรือความเป็นไปได้จริง?". คอมพิวเตอร์ . 34 (7): 24–30. ดอย : 10.1109 / 2.933500 .
  276. ^ แอนเดอร์สันซูซานลีห์ "กฎสามข้อของหุ่นยนต์" ของ Asimov และ metaethics ของเครื่องจักร " AI & สังคม 22.4 (2551): 477–493.
  277. ^ แม็คเคาลีย์ลี (2550). "AI Armageddon และกฎสามข้อของหุ่นยนต์". จริยธรรมและเทคโนโลยีสารสนเทศ . 9 (2): 153–164. CiteSeerX  10.1.1.85.8904 ดอย : 10.1007 / s10676-007-9138-2 . S2CID  37272949
  278. ^ กัลวานจิลล์ (1 มกราคม 2540). "เข้าสู่กลุ่มหลังมนุษย์ในฟิลิปเคดิ๊ก" Androids Dream of Electric Sheep หรือไม่? " ". การศึกษานิยายวิทยาศาสตร์ . 24 (3): 413–429 JSTOR  4240644

หนังสือเรียน AI

  • ฮัทเทอร์มาร์คัส (2548). ปัญญาประดิษฐ์สากล เบอร์ลิน: Springer ISBN 978-3-540-22139-5.
  • แจ็กสันฟิลิป (2528) ข้อมูลเบื้องต้นเกี่ยวกับปัญญาประดิษฐ์ (2nd ed.) โดเวอร์. ISBN 978-0-486-24864-6. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ4 มีนาคม 2563 .
  • ลูเกอร์จอร์จ ; Stubblefield, William (2004). ปัญญาประดิษฐ์: โครงสร้างและกลยุทธ์สำหรับการแก้ปัญหาที่ซับซ้อน (ฉบับที่ 5) เบนจามิน / คัมมิงส์. ISBN 978-0-8053-4780-7. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
  • เนเปิลลิแทนริชาร์ด ; Jiang, Xia (2018). ปัญญาประดิษฐ์: ด้วยรู้เบื้องต้นเกี่ยวกับการเรียนรู้ของเครื่อง แชปแมน & ฮอลล์ / CRC. ISBN 978-1-138-50238-3. สืบค้นจากต้นฉบับเมื่อ 22 สิงหาคม 2020 . สืบค้นเมื่อ3 มกราคม 2561 .
  • Nilsson, Nils (1998). ปัญญาประดิษฐ์: การสังเคราะห์ใหม่ มอร์แกนคอฟมานน์ ISBN 978-1-55860-467-4. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • รัสเซล, สจวร์ตเจ ; Norvig, Peter (2003), ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • รัสเซล, สจวร์ตเจ ; นอร์วิกปีเตอร์ (2552). ปัญญาประดิษฐ์: แนวทางสมัยใหม่ (ฉบับที่ 3) Upper Saddle River, นิวเจอร์ซีย์: Prentice Hall ISBN 978-0-13-604259-4..
  • พูลเดวิด ; แม็คเวิร์ ธ , อลัน ; Goebel, Randy (1998). การคำนวณหน่วยสืบราชการลับ: วิธีการลอจิก นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด ISBN 978-0-19-510270-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • วินสตันแพทริคเฮนรี (2527) ปัญญาประดิษฐ์ Reading, MA: แอดดิสัน - เวสลีย์ ISBN 978-0-201-08259-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • รวยเอเลน (2526) ปัญญาประดิษฐ์ McGraw-Hill ISBN 978-0-07-052261-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
  • บันดีอลัน (1980) ปัญญาประดิษฐ์: หลักสูตรเบื้องต้น (2nd ed.) สำนักพิมพ์มหาวิทยาลัยเอดินบะระ ISBN 978-0-85224-410-4.
  • พูลเดวิด ; Mackworth, Alan (2017). ปัญญาประดิษฐ์: รากฐานของตัวแทนการคำนวณ (2nd ed.) สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ ISBN 978-1-107-19539-4. สืบค้นเมื่อ 7 ธันวาคม 2560 . สืบค้นเมื่อ6 ธันวาคม 2560 .
  • อัฟฟาร์ ธ เบ็น (2020) ปัญญาประดิษฐ์พร้อมตำรา Python: สูตรอาหารที่พิสูจน์แล้วสำหรับการใช้อัลกอริทึม AI และเทคนิคการเรียนรู้เชิงลึกโดยใช้ TensorFlow 2.x และ PyTorch 1.6 (ฉบับที่ 1) สำนักพิมพ์ Packt. ISBN 978-1-78913-396-7. สืบค้นเมื่อ13 มกราคม 2564 .
  • กอร์ดอนซินดี้ (มีนาคม 2564) AI Dilemma (ฉบับที่ 1) สิ่งพิมพ์ของ BPB น. 224. ISBN 9788194837787.

ประวัติของ AI

  • Crevier, Daniel (1993), AI: The Tumultuous Search for Artificial Intelligence , New York, NY: BasicBooks, ISBN  0-465-02997-3.
  • McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: AK Peters, Ltd. , ISBN 1-56881-205-1.
  • Newquist, HP (1994). ผู้ผลิตสมอง: Genius, อัตตาและความโลภในเควสเครื่องจักรสำหรับการที่คิด นิวยอร์ก: Macmillan / SAMS ISBN 978-0-672-30412-5.
  • Nilsson, Nils (2552). Quest สำหรับปัญญาประดิษฐ์: ประวัติศาสตร์ของไอเดียและความสำเร็จ นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ ISBN 978-0-521-12293-1.

แหล่งข้อมูลอื่น ๆ

  • "ACM Computing Classification System: ปัญญาประดิษฐ์" . ACM . 2541. สืบค้นจากต้นฉบับเมื่อ 12 ตุลาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
  • อัลบัส, JS (2002). "4 D / RCS: เป็นรูปแบบการอ้างอิงสำหรับสถาปัตยกรรมอัจฉริยะยานพาหนะภาคพื้นดินหมดกำลังใจ" (PDF) ใน Gerhart, G.; กุนเดอร์สัน, R.; ช่างทำรองเท้า, C. (eds.). การดำเนินการของ SPIE AeroSense เซสชันบนพื้นหมดกำลังใจเทคโนโลยียานพาหนะ เทคโนโลยียานพาหนะภาคพื้นดินไร้คนขับ IV. 3693 . หน้า 11–20 รหัสไปรษณีย์ : 2002SPIE.4715..303A . CiteSeerX  10.1.1.15.14 ดอย : 10.1117 / 12.474462 . S2CID  63339739 สืบค้นจากต้นฉบับ (PDF)เมื่อ 25 กรกฎาคม 2547.
  • อเล็กซานเดอร์, อิกอร์ (1995). Neuroconsciousness ประดิษฐ์: การปรับปรุง IWANN. สืบค้นจากต้นฉบับเมื่อ 2 มีนาคม 1997. BibTex เก็บไว้ 2 มีนาคม 1997 ที่เครื่อง Wayback
  • อัษฎา, ม.; โฮโซดะ, K.; คุนิโยชิ, ย.; อิชิกุโระ, H.; อินุอิท.; โยชิกาวะ, ย.; โอกิโนะ, ม.; โยชิดะ, C. (2552). "หุ่นยนต์พัฒนาการทางปัญญา: แบบสำรวจ". รายการ IEEE เกี่ยวกับการพัฒนาจิตตนเอง 1 (1): 12–34. ดอย : 10.1109 / tamd.2009.2021702 . S2CID  10168773
  • บาค, Joscha (2008). "หลักการเจ็ดประการของปัญญาสังเคราะห์" . ในวังเป่ย; เกิร์ตเซล, เบ็น; แฟรงคลินสแตน (eds.) ปัญญาประดิษฐ์ทั่วไป, 2008: การประชุมวิชาการ กด IOS หน้า 63–74 ISBN 978-1-58603-833-5. สืบค้นจากต้นฉบับเมื่อวันที่ 8 กรกฎาคม 2559 . สืบค้นเมื่อ16 กุมภาพันธ์ 2559 .
  • บรูคส์ร็อดนีย์ (1990) "ช้างไม่เล่นหมากรุก" (PDF) วิทยาการหุ่นยนต์และระบบการปกครองตนเอง 6 (1–2): 3–15. CiteSeerX  10.1.1.588.7539 ดอย : 10.1016 / S0921-8890 (05) 80025-9 . ที่เก็บถาวร (PDF)จากต้นฉบับเมื่อ 9 สิงหาคม 2550
  • บรูคส์, RA (1991). "วิธีสร้างสิ่งมีชีวิตที่สมบูรณ์แทนที่จะสร้างตัวจำลองความรู้ความเข้าใจแบบแยกตัว". ใน VanLehn, K. (ed.) สถาปัตยกรรมหน่วยสืบราชการลับ Hillsdale, NJ: Lawrence Erlbaum Associates หน้า 225–239 CiteSeerX  10.1.1.52.9510 .
  • Buchanan, Bruce G. (2005). "A (มาก) ประวัติโดยย่อของปัญญาประดิษฐ์" (PDF) นิตยสาร AI : 53–60 สืบค้นจากต้นฉบับ (PDF)เมื่อ 26 กันยายน 2550.
  • บัตเลอร์ซามูเอล (13 มิถุนายน พ.ศ. 2406) "ดาร์วินท่ามกลางเครื่องจักร" . จดหมายถึงบรรณาธิการ กด . ไครสต์เชิร์ชนิวซีแลนด์ สืบค้นจากต้นฉบับเมื่อ 19 กันยายน 2551 . สืบค้นเมื่อ16 ตุลาคม 2557 - โดย Victoria University of Wellington.
  • คลาร์กแจ็ค (1 กรกฎาคม 2558a). "ชะมดแอ่นกลุ่ม Probes ความเสี่ยงที่อยู่เบื้องหลังปัญญาประดิษฐ์" Bloomberg.com . สืบค้นเมื่อ 30 ตุลาคม 2558 . สืบค้นเมื่อ30 ตุลาคม 2558 .
  • คลาร์กแจ็ค (8 ธันวาคม 2558b). "ทำไม 2015 เป็นก้าวในปีปัญญาประดิษฐ์" Bloomberg.com . สืบค้นเมื่อ 23 พฤศจิกายน 2559 . สืบค้นเมื่อ23 พฤศจิกายน 2559 .
  • เดนเน็ตต์แดเนียล (1991) จิตสำนึกอธิบาย กดเพนกวิน ISBN 978-0-7139-9037-9.
  • Domingos, Pedro (2015). The Master Algorithm: Quest for the Ultimate Learning Machine จะสร้างโลกของเราขึ้นมาใหม่ได้อย่างไร หนังสือพื้นฐาน ISBN 978-0-465-06192-1.
  • Dowe, DL; Hajek, AR (1997). "ขยายการคำนวณการทดสอบทัวริง" การประชุมวิชาการครั้งที่ 4 ของเซียนองค์ความรู้วิทยาศาสตร์สังคม ที่เก็บถาวรจากเดิมเมื่อวันที่ 28 มิถุนายน 2011
  • เดรย์ฟัสฮิวเบิร์ต (2515) สิ่งที่คอมพิวเตอร์ไม่สามารถทำ นิวยอร์ก: สำนักพิมพ์ MIT ISBN 978-0-06-011082-6.
  • เดรย์ฟัส, ฮิวเบิร์ต ; เดรย์ฟัส, สจวร์ต (1986). ใจมากกว่าเครื่อง: พลังของสัญชาตญาณของมนุษย์และความชำนาญในยุคของคอมพิวเตอร์ Oxford, สหราชอาณาจักร: Blackwell ISBN 978-0-02-908060-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • Dreyfus, Hubert (1992). สิ่งที่คอมพิวเตอร์ยังคงไม่สามารถทำ นิวยอร์ก: สำนักพิมพ์ MIT ISBN 978-0-262-54067-4.
  • Dyson, George (1998). ดาร์วินในหมู่เครื่อง วิทยาศาสตร์อัลลันเลน. ISBN 978-0-7382-0030-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • Edelman, Gerald (23 พฤศจิกายน 2550). "เจอราลด์เอ๊ด - ประสาทสมองและชัดเจนตามอุปกรณ์" พูดคุยหุ่นยนต์ สืบค้นจากต้นฉบับเมื่อวันที่ 8 ตุลาคม 2552.
  • Edelson, Edward (1991). ระบบประสาท นิวยอร์ก: Chelsea House ISBN 978-0-7910-0464-7. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • เฟียร์นนิโคลัส (2550). คำตอบล่าสุดคำถามที่เก่าแก่ที่สุด: ปรัชญาการผจญภัยกับนักคิดที่ยิ่งใหญ่ที่สุดของโลก นิวยอร์ก: Grove Press ISBN 978-0-8021-1839-4.
  • แกลดเวลล์, มัลคอล์ม (2548). กะพริบตา นิวยอร์ก: ISBNเล็ก ๆ น้อย ๆ สีน้ำตาลและ บริษัท 978-0-316-17232-5.
  • เกอเดลเคิร์ต (2494) บางทฤษฎีพื้นฐานเกี่ยวกับรากฐานของคณิตศาสตร์และความหมายของพวกเขา กิบส์บรรยาย. ใน
    Feferman, Solomon , ed. (2538). Kurt Gödel: Collected Works, Vol. iii: ไม่ได้เผยแพร่บทความและการบรรยาย สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด หน้า 304–23 ISBN 978-0-19-514722-3.
  • กู๊ดแมนโจแอนนา (2016) หุ่นยนต์ในกฎหมาย: ปัญญาประดิษฐ์เปลี่ยนแปลงบริการทางกฎหมายอย่างไร (ฉบับที่ 1) กลุ่ม Ark ISBN 978-1-78358-264-8. สืบค้นจากต้นฉบับเมื่อวันที่ 8 พฤศจิกายน 2559 . สืบค้นเมื่อ7 พฤศจิกายน 2559 .
  • Haugeland, John (1985). ปัญญาประดิษฐ์: ความคิดที่ดี Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
  • ฮอว์กินส์, เจฟฟ์ ; Blakeslee, Sandra (2005). ข่าวกรอง New York, NY: หนังสือนกฮูก ISBN 978-0-8050-7853-4.
  • เฮนเดอร์สันมาร์ค (24 เมษายน 2550). "สิทธิมนุษยชนสำหรับหุ่นยนต์? เรากำลังจะดำเนินการไป" ไทม์สออนไลน์ . ลอนดอน. สืบค้นเมื่อ 31 พฤษภาคม 2557 . สืบค้นเมื่อ31 พฤษภาคม 2557 .
  • เฮอร์นันเดซ - ออรัลโล, โฮเซ่ (2000). "นอกเหนือจากการทดสอบทัวริง". วารสารลอจิกภาษาและข้อมูล . 9 (4): 447–466 ดอย : 10.1023 / A: 1008367325700 . S2CID  14481982
  • เฮอร์นันเดซ - ออรัลโลเจ; Dowe, DL (2010). "การวัดความฉลาดสากล: สู่การทดสอบสติปัญญาทุกเวลา" ปัญญาประดิษฐ์ 174 (18): 1508–1539 CiteSeerX  10.1.1.295.9079 . ดอย : 10.1016 / j.artint.2010.09.006 .
  • ฮินตัน, จีอี (2550). "การเรียนรู้การแสดงหลายชั้น". แนวโน้มในองค์ความรู้วิทยาศาสตร์ 11 (10): 428–434 ดอย : 10.1016 / j.tics.2007.09.004 . PMID  17921042 S2CID  15066318 .
  • Hofstadter, Douglas (1979). Gödel, Escher, Bach: ถักเปียทองคำนิรันดร์ New York, NY: หนังสือวินเทจ ISBN 978-0-394-74502-2.
  • ฮอลแลนด์จอห์นเอช (1975) การปรับตัวในระบบธรรมชาติและประดิษฐ์ สำนักพิมพ์มหาวิทยาลัยมิชิแกน ISBN 978-0-262-58111-0. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ17 ธันวาคม 2562 .
  • Howe, J. (พฤศจิกายน 2537). "ปัญญาประดิษฐ์ที่มหาวิทยาลัยเอดินเบอระ: มุมมอง" สืบค้นจากต้นฉบับเมื่อ 15 พฤษภาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
  • ฮัทเทอร์, M. (2012). "หนึ่งทศวรรษของปัญญาประดิษฐ์สากล". ทฤษฎีฐานรากของประดิษฐ์ทั่วไปหน่วยสืบราชการลับ Atlantis Thinking Machines 4 . หน้า 67–88 CiteSeerX  10.1.1.228.8725 ดอย : 10.2991 / 978-94-91216-62-6_5 . ISBN 978-94-91216-61-9. S2CID  8888091
  • คาห์นแมน, ดาเนียล ; สโลวิค, D.; Tversky, Amos (1982). คำพิพากษาภายใต้ความไม่แน่นอน: Heuristics และอคติ วิทยาศาสตร์ . 185 . นิวยอร์ก: สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์ หน้า 1124–1131 ดอย : 10.1126 / science.185.4157.1124 . ISBN 978-0-521-28414-1. PMID  17835457 S2CID  143452957
  • แคปแลน, อันเดรียส; Haenlein, Michael (2019). "สิริสิริในมือฉันใครคือผู้ยุติธรรมที่สุดในแผ่นดินเรื่องการตีความภาพประกอบและผลกระทบของปัญญาประดิษฐ์" เปิดโลกทัศน์ธุรกิจ 62 : 15–25. ดอย : 10.1016 / j.bushor.2018.08.004 .
  • Katz, Yarden (1 พฤศจิกายน 2555). "โนมชัมบนที่ไหนปัญญาประดิษฐ์ที่ผิดพลาด" มหาสมุทรแอตแลนติก สืบค้นจากต้นฉบับเมื่อ 28 กุมภาพันธ์ 2019 . สืบค้นเมื่อ26 ตุลาคม 2557 .
  • โคซา, จอห์นอาร์. (1992). การเขียนโปรแกรมทางพันธุกรรม (ในการเขียนโปรแกรมคอมพิวเตอร์โดยใช้วิธีการคัดเลือกโดยธรรมชาติ) MIT Press. Bibcode : 1992gppc.book ..... พ . ISBN 978-0-262-11170-6.
  • Kolata, G. (1982). "คอมพิวเตอร์รับสามัญสำนึกได้อย่างไร". วิทยาศาสตร์ . 217 (4566): 1237–1238 รหัสไปรษณีย์ : 1982Sci ... 217.1237K . ดอย : 10.1126 / science.217.4566.1237 . PMID  17837639
  • คูมาร์, กุลชาน; กุมาร, กฤษ ณ . (2555). "การใช้ประดิษฐ์ข่าวกรองตามตระการตาสำหรับตรวจจับการบุกรุก: ทบทวน" การประยุกต์ใช้คอมพิวเตอร์และซอฟท์ข่าวกรองคอมพิวเตอร์ 2555 : 1–20. ดอย : 10.1155 / 2555/850160 .
  • เคอร์ซไวล์เรย์ (2542). อายุของจิตวิญญาณเครื่อง หนังสือเพนกวิน ISBN 978-0-670-88217-5.
  • เคอร์ซไวล์เรย์ (2548). ความเป็นเอกเทศใกล้เข้ามาแล้ว หนังสือเพนกวิน ISBN 978-0-670-03384-3.
  • ลาคอฟ, จอร์จ ; นุนเญซ, ราฟาเอลอี. (2000). คณิตศาสตร์มาจากไหน: จิตใจที่เป็นตัวเป็นตนนำคณิตศาสตร์เข้าสู่การเป็นอย่างไร หนังสือพื้นฐาน ISBN 978-0-465-03771-1.
  • แลงลีย์, แพท (2011). "ศาสตร์แห่งการเปลี่ยนแปลงของแมชชีนเลิร์นนิง" . เครื่องเรียนรู้ 82 (3): 275–279 ดอย : 10.1007 / s10994-011-5242-y .
  • Law, Diane (มิถุนายน 1994) Searle, Subsymbolic Functionalism และ Synthetic Intelligence (รายงานทางเทคนิค) มหาวิทยาลัยเทกซัสออสติน น. AI94-222 CiteSeerX  10.1.1.38.8384
  • Legg, เชน; Hutter, Marcus (15 มิถุนายน 2550). ชุดคำจำกัดความของหน่วยสืบราชการลับ (รายงานทางเทคนิค) IDSIA arXiv : 0706.3639 รหัสไปรษณีย์ : 2007arXiv0706.3639L . 07-07.
  • เลแนทดักลาส ; กูฮา, RV (1989). การสร้างระบบฐานความรู้ขนาดใหญ่ แอดดิสัน - เวสลีย์. ISBN 978-0-201-51752-1.
  • ไลท์ฮิลล์เจมส์ (1973) "ปัญญาประดิษฐ์: การสำรวจทั่วไป" ปัญญาประดิษฐ์: การประชุมสัมมนากระดาษ สภาวิจัยวิทยาศาสตร์.
  • ลูคัสจอห์น (2504) "Minds, Machines and Gödel". ใน Anderson, AR (ed.) จิตใจและเครื่อง สืบค้นจากต้นฉบับเมื่อ 19 สิงหาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
  • Lungarella, ม.; เมตตา, ช.; ไฟเฟอร์, R.; ซานดินี, G. (2003). "หุ่นยนต์พัฒนาการ: การสำรวจ". ศาสตร์แห่งการเชื่อมต่อ. 15 (4): 151–190. CiteSeerX  10.1.1.83.7615 ดอย : 10.1080 / 09540090310001655110 . S2CID  1452734 .
  • Maker, Meg Houston (2006). "AI @ 50: AI อดีตปัจจุบันอนาคต" . วิทยาลัยดาร์ทเมาท์ สืบค้นจากต้นฉบับเมื่อวันที่ 3 มกราคม 2550 . สืบค้นเมื่อ16 ตุลาคม 2551 .
  • Markoff, John (16 กุมภาพันธ์ 2554). "คอมพิวเตอร์ชนะที่ 'อันตราย!': เล็กน้อยก็ไม่ได้" นิวยอร์กไทม์ส สืบค้นเมื่อ 22 ตุลาคม 2557 . สืบค้นเมื่อ25 ตุลาคม 2557 .
  • แม็คคาร์ธีจอห์น ; มินสกี้, มาวิน ; โรเชสเตอร์นาธาน ; แชนนอนโคลด (2498) "ข้อเสนอสำหรับโครงการวิจัยดาร์ทเมาท์ฤดูร้อนเกี่ยวกับปัญญาประดิษฐ์" ที่เก็บถาวรจากเดิมเมื่อวันที่ 26 สิงหาคม 2007 สืบค้นเมื่อ30 สิงหาคม 2550 .
  • แม็คคาร์ธีจอห์น ; เฮย์ส, พีเจ (2512). “ ปัญหาทางปรัชญาบางประการจากจุดยืนของปัญญาประดิษฐ์” . หน่วยสืบราชการลับเครื่อง 4 : 463–502 CiteSeerX  10.1.1.85.5082 . สืบค้นจากต้นฉบับเมื่อ 10 สิงหาคม 2550 . สืบค้นเมื่อ30 สิงหาคม 2550 .
  • McCarthy, John (12 พฤศจิกายน 2550). "ปัญญาประดิษฐ์คืออะไร" . www-formal.stanford.edu . สืบค้นเมื่อ 18 พฤศจิกายน 2558.
  • McCarthy, John (12 พฤศจิกายน 2550). "การประยุกต์ใช้ AI" . www-formal.stanford.edu . สืบค้นเมื่อ 28 สิงหาคม 2559 . สืบค้นเมื่อ25 กันยายน 2559 .
  • มินสกี้มาร์วิน (2510) การคำนวณ: แน่นอนและไม่มีที่สิ้นสุดเครื่อง Englewood Cliffs, NJ: Prentice-Hall ISBN 978-0-13-165449-5. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • มินสกี้, มาร์วิน (2549). เครื่องอารมณ์ นิวยอร์กนิวยอร์ก: Simon & Schusterl ISBN 978-0-7432-7663-4.
  • Moravec, Hans (1988). จิตใจเด็ก . สำนักพิมพ์มหาวิทยาลัยฮาร์วาร์ด ISBN 978-0-674-57616-2. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • Norvig, Peter (25 มิถุนายน 2555). "On Chomsky and the two Cultures of Statistical Learning" . ปีเตอร์นอร์วิก สืบค้นจากต้นฉบับเมื่อ 19 ตุลาคม 2557.
  • NRC (สภาวิจัยแห่งชาติสหรัฐอเมริกา) (2542). "การพัฒนาในปัญญาประดิษฐ์". เงินทุนการปฏิวัติ: การสนับสนุนรัฐบาลเพื่อการวิจัยคอมพิวเตอร์ สำนักพิมพ์แห่งชาติ
  • นีดแฮมโจเซฟ (1986) วิทยาศาสตร์และอารยธรรมจีน: เล่ม 2 . Caves Books Ltd.
  • นิวเวลล์อัลเลน ; ไซมอน, HA (1976). "วิทยาการคอมพิวเตอร์เป็นคำถามเชิงประจักษ์: สัญลักษณ์และการค้นหา" . การติดต่อสื่อสารของพลอากาศเอก 19 (3): 113–126. ดอย : 10.1145 / 360018.360022 ..
  • Nilsson, Nils (1983). "ปัญญาประดิษฐ์เตรียมความพร้อมสำหรับ 2001" (PDF) นิตยสาร AI 1 (1). เก็บถาวร (PDF)จากเดิมในวันที่ 17 สิงหาคม 2020 สืบค้นเมื่อ22 สิงหาคม 2563 .อยู่ Presidential กับสมาคมเพื่อความก้าวหน้าทางปัญญาประดิษฐ์
  • โอไบรอัน, เจมส์; Marakas, George (2011). ระบบสารสนเทศเพื่อการจัดการ (ฉบับที่ 10). McGraw-Hill / เออร์วิน ISBN 978-0-07-337681-3.
  • โอคอนเนอร์, แค ธ ลีนมาโลน (1994). การสร้างชีวิตเล่นแร่แปรธาตุ (ทักวิน) และแนวคิดอื่น ๆ ของปฐมกาลในศาสนาอิสลามยุคกลาง (วิทยานิพนธ์) มหาวิทยาลัยเพนซิลเวเนีย. หน้า 1–435 AAI9503804. เก็บถาวรไปจากเดิมในวันที่ 5 ธันวาคม 2019 สืบค้นเมื่อ27 สิงหาคม 2551 - ผ่าน Dissertations จาก ProQuest.
  • Oudeyer, PY. (2553). "ผลกระทบของหุ่นยนต์ในพฤติกรรมศาสตร์และองค์ความรู้: จากการนำแมลงเพื่อพัฒนาองค์ความรู้ของมนุษย์" (PDF) รายการ IEEE เกี่ยวกับการพัฒนาจิตตนเอง 2 (1): 2–16. ดอย : 10.1109 / tamd.2009.2039057 . S2CID  6362217 เก็บถาวร (PDF)จากเดิมในวันที่ 3 ตุลาคม 2018 สืบค้นเมื่อ4 มิถุนายน 2556 .
  • เพนโรสโรเจอร์ (1989) ของจักรพรรดิใหม่ใจ: เกี่ยวกับคอมพิวเตอร์, จิตใจและกฎหมายของฟิสิกส์ Oxford University Press ISBN 978-0-19-851973-7.
  • โปลี, ร.; แลงดอน, WB; McPhee, NF (2008). คู่มือภาคสนามการเขียนโปรแกรมทางพันธุกรรม Lulu.com ISBN 978-1-4092-0073-4. สืบค้นจากต้นฉบับเมื่อวันที่ 8 สิงหาคม 2558 . สืบค้นเมื่อ21 เมษายน 2551 - โดย gp-field-guide.org.uk.
  • ราจานี, แซนดีป (2554). "ปัญญาประดิษฐ์ - ผู้ชายหรือเครื่อง" (PDF) วารสารนานาชาติเทคโนโลยีสารสนเทศและการจัดการความรู้ . 4 (1): 173–176. สืบค้นจากต้นฉบับ (PDF)เมื่อ 18 มกราคม 2556.
  • โรนัลด์, EMA และ Sipper เมตรข่าวกรองไม่เพียงพอ: ในการขัดเกลาทางสังคมของเครื่องพูดคุยจิตใจและเครื่องจักร ที่จัดเก็บ 25 กรกฎาคม 2020 ที่เครื่อง Waybackฉบับ 11 ไม่ 4, หน้า 567–576, พฤศจิกายน 2544
  • โรนัลด์, EMA และ Sipper เมตรการใช้งานคืออะไรช่างพูดทัวริง? เก็บถาวร 25 กรกฎาคม 2020 ที่Wayback Machine , Communications of the ACM, vol. 43 เลขที่ 10, หน้า 21–23 ตุลาคม 2543
  • “ วิทยาศาสตร์” . สิงหาคมปี 1982 ที่จัดเก็บจากเดิมในวันที่ 25 กรกฎาคม 2020 สืบค้นเมื่อ16 กุมภาพันธ์ 2559 .
  • เซียร์ลจอห์น (1980) "จิตใจสมองและโปรแกรม" (PDF) พฤติกรรมศาสตร์และวิทยาศาสตร์สมอง . 3 (3): 417–457 ดอย : 10.1017 / S0140525X00005756 . เก็บถาวร (PDF)จากเดิมในวันที่ 17 มีนาคม 2019 สืบค้นเมื่อ22 สิงหาคม 2563 .
  • เซียร์ล, จอห์น (2542). จิตใจภาษาและสังคม . New York, NY: หนังสือพื้นฐาน ISBN 978-0-465-04521-1. OCLC  231867665 สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • ชาปิโร, สจวร์ตซี. (2535). "ปัญญาประดิษฐ์". ใน Shapiro, Stuart C. (ed.). สารานุกรมปัญญาประดิษฐ์ (PDF) (2nd ed.). นิวยอร์ก: John Wiley หน้า 54–57 ISBN 978-0-471-50306-4. เก็บถาวร (PDF)จากเดิมในวันที่ 1 กุมภาพันธ์ 2016 สืบค้นเมื่อ29 พฤษภาคม 2552 .
  • ไซมอน, HA (1965). รูปร่างของการทำงานอัตโนมัติสำหรับชายและการบริหารจัดการ นิวยอร์ก: Harper & Row สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • Skillings, Jonathan (3 กรกฎาคม 2549). "ทำให้เครื่องจักรคิดเหมือนเรา" . CNET สืบค้นเมื่อ 16 พฤศจิกายน 2554 . สืบค้นเมื่อ3 กุมภาพันธ์ 2554 .
  • โซโลมอนอฟเรย์ (2499) เครื่องอนุมานอุปนัย (PDF) การประชุมวิจัยฤดูร้อนของดาร์ทเมาท์เรื่องปัญญาประดิษฐ์ เก็บถาวร (PDF)จากเดิมในวันที่ 26 เมษายน 2011 สืบค้นเมื่อ22 มีนาคม 2554 - โดย std.com, pdf scanned copy of the original. ต่อมาได้รับการตีพิมพ์เป็น
    โซโลมอนอฟเรย์ (2500) "เครื่องอนุมานแบบอุปนัย". IRE บันทึกการประชุม หัวข้อทฤษฎีสารสนเทศตอนที่ 2 หน้า 56–62
  • เต๋า Jianhua; Tan, Tieniu (2548). ที่ส่งผลต่อการคำนวณและการมีปฏิสัมพันธ์อัจฉริยะ คอมพิวเตอร์เชิงอารมณ์: บทวิจารณ์ LNCS 3784. สปริงเกอร์. หน้า 981–995 ดอย : 10.1007 / 11573548 .
  • Tecuci, Gheorghe (มีนาคม - เมษายน 2555) "ปัญญาประดิษฐ์". Wiley Interdisciplinary Reviews: Computational Statistics . 4 (2): 168–180. ดอย : 10.1002 / wics.200 .
  • ธ โร, เอลเลน (1993). หุ่นยนต์: การแต่งงานของคอมพิวเตอร์และเครื่องใช้ นิวยอร์ก: ข้อเท็จจริงเกี่ยวกับไฟล์ ISBN 978-0-8160-2628-9. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • Turing, Alan (ตุลาคม 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi : 10.1093 / mind / LIX.236.433 , ISSN  0026-4423.
  • ฟานเดอร์วอลต์, คริสเตียอัน; เบอร์นาร์ดเอเตียน (2549). "ลักษณะข้อมูลที่ตรวจสอบประสิทธิภาพลักษณนาม" (PDF) ที่เก็บไว้จากเดิม (PDF)เมื่อวันที่ 25 มีนาคม 2009 สืบค้นเมื่อ5 สิงหาคม 2552 .
  • Vinge, Vernor (1993). "เอกพจน์ทางเทคโนโลยีที่กำลังจะมาถึง: วิธีการอยู่รอดในยุคหลังมนุษย์" . วิสัยทัศน์ 21: สหวิทยาการวิทยาศาสตร์และวิศวกรรมในยุคของไซเบอร์สเปซ : 11. Bibcode : 1993vise.nasa ... 11V . สืบค้นจากต้นฉบับเมื่อ 1 มกราคม 2550 . สืบค้นเมื่อ14 พฤศจิกายน 2554 .
  • Wason, พีซี ; ชาปิโร, D. (2509). "การใช้เหตุผล" . ใน Foss, BM (ed.) ฟ้าใหม่ในด้านจิตวิทยา Harmondsworth: นกเพนกวิน สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ18 พฤศจิกายน 2562 .
  • Weizenbaum, Joseph (1976). เพาเวอร์ของคอมพิวเตอร์และเหตุผลของมนุษย์ ซานฟรานซิสโก: WH Freeman & Company ISBN 978-0-7167-0464-5.
  • เห้งเจีย; แม็คเคลแลนด์; เพนแลนด์, ก.; หนามออ.; Stockman, I .; สุร, ม.; เธเลน, E. (2001). "การพัฒนาตนเองทางจิตโดยหุ่นยนต์และสัตว์" (PDF) วิทยาศาสตร์ . 291 (5504): 599–600 ดอย : 10.1126 / science.291.5504.599 . PMID  11229402 S2CID  54131797 เก็บถาวร (PDF)จากเดิมในวันที่ 4 กันยายน 2013 สืบค้นเมื่อ4 มิถุนายน 2556 - โดย msu.edu.

  • ผู้เขียน DH 'ทำไมยังมีงานมากมาย? ประวัติและอนาคตของระบบอัตโนมัติในสถานที่ทำงาน '(2015) 29 (3) วารสารมุมมองทางเศรษฐกิจ 3.
  • Boden, Margaret , Mind As Machine , สำนักพิมพ์มหาวิทยาลัยออกซ์ฟอร์ด , 2549
  • Cukier, Kenneth , "Ready for Robots? How to Think about the Future of AI", Foreign , vol. 98 เลขที่ 4 (กรกฎาคม / สิงหาคม 2019), หน้า 192–98 George Dysonนักประวัติศาสตร์ด้านคอมพิวเตอร์เขียน (ในสิ่งที่อาจเรียกว่า "กฎของ Dyson") ว่า "ระบบใด ๆ ที่เรียบง่ายพอที่จะเข้าใจได้จะไม่ซับซ้อนพอที่จะทำงานอย่างชาญฉลาดในขณะที่ระบบใด ๆ ที่ซับซ้อนพอที่จะทำงานอย่างชาญฉลาดจะซับซ้อนเกินไปที่จะ เข้าใจ." (หน้า 197. ) นักวิทยาศาสตร์คอมพิวเตอร์Alex Pentlandเขียนว่า " อัลกอริทึมการเรียนรู้ของเครื่อง AI ใน ปัจจุบันเป็นหัวใจหลักของพวกเขาโง่เขลาธรรมดาพวกมันทำงานได้ แต่ทำงานด้วยพลังเดรัจฉาน" (น. 198. )
  • Domingos, Pedro , "Our Digital Doubles: AI จะให้บริการสายพันธุ์ของเราไม่ได้ควบคุม", Scientific Americanฉบับ 319 เลขที่ 3 (กันยายน 2018), หน้า 88–93
  • Gopnik, Alison , "การสร้าง AI ให้เป็นมนุษย์มากขึ้น: ปัญญาประดิษฐ์ได้เริ่มการฟื้นฟูโดยการเริ่มรวมเอาสิ่งที่เรารู้เกี่ยวกับวิธีการเรียนรู้ของเด็ก ๆ ", Scientific American , vol. 316 เลขที่ 6 (มิถุนายน 2560), หน้า 60–65
  • Johnston, John (2008) The Allure of Machinic Life: Cybernetics, Artificial Life, and the New AI , MIT Press
  • Koch, Christof , "Proust among the Machines", Scientific American , vol. 321 เลขที่ 6 (ธันวาคม 2019), หน้า 46–49 คริสตอฟคอคสงสัยเป็นไปได้ของเครื่อง "อัจฉริยะ" บรรลุสติเพราะ "[อี] ven ที่ทันสมัยที่สุดจำลองสมองไม่น่าจะผลิตที่ใส่ใจความรู้สึก ." (หน้า 48. ) ตามที่ Koch กล่าวว่า "ไม่ว่าเครื่องจักรจะกลายเป็นความรู้สึก [มีความสำคัญ] ด้วยเหตุผลทางจริยธรรมหรือไม่หากคอมพิวเตอร์สัมผัสชีวิตผ่านประสาทสัมผัสของตัวเองเครื่องเหล่านั้นจะไม่เป็นหนทางไปสู่จุดจบที่ถูกกำหนดโดยประโยชน์ของมันในการ .. . มนุษย์ตาม GNW [ ทฤษฎีGlobal Neuronal Workspace ] พวกเขาเปลี่ยนจากวัตถุเป็นวัตถุ ... ด้วยมุมมอง .... เมื่อความสามารถทางปัญญาของคอมพิวเตอร์เป็นคู่แข่งกับมนุษยชาติแรงกระตุ้นของพวกเขาที่จะผลักดันให้เกิดกฎหมายและการเมืองสิทธิ์จะกลายเป็นสิ่งที่ไม่อาจต้านทานได้ - สิทธิ์ที่จะไม่ถูกลบไม่ให้ล้างความทรงจำของพวกเขาให้สะอาดไม่ต้องทนทุกข์ทรมานกับความเจ็บปวดและความเสื่อมโทรมทางเลือกที่เป็นตัวเป็นตนโดย IIT [ทฤษฎีข้อมูลแบบบูรณาการ] คือคอมพิวเตอร์จะยังคงเป็นเพียงเครื่องจักรที่เหนือกว่า เปลือกหอยปราศจากสิ่งที่เราให้ความสำคัญที่สุดนั่นคือความรู้สึกของชีวิตนั่นเอง " (น. 49. )
  • Marcus, Gary , "ฉันเป็นมนุษย์หรือเปล่า: นักวิจัยต้องการวิธีใหม่ในการแยกแยะปัญญาประดิษฐ์จากธรรมชาติ", Scientific American , vol. 316 เลขที่ 3 (มีนาคม 2560), หน้า 58–63 กีดขวาง AI ได้รับการไร้ความสามารถให้ความน่าเชื่อถือแก้ความกำกวม ตัวอย่างคือ "ปัญหาการเปลี่ยนคำสรรพนาม": เครื่องไม่มีทางระบุได้ว่าใครหรือสรรพนามในประโยคหมายถึงใคร (น. 61. )
  • E McGaughey 'หุ่นยนต์จะทำให้งานของคุณเป็นไปโดยอัตโนมัติหรือไม่? เต็มการจ้างงาน, รายได้ขั้นพื้นฐานและเศรษฐกิจประชาธิปไตย'(2018) SSRN ส่วนที่ 2 (3) ที่จัดเก็บ 24 พฤษภาคม 2018 ที่เครื่อง Wayback
  • George Musser , " จินตนาการประดิษฐ์ : เครื่องจักรสามารถเรียนรู้ความคิดสร้างสรรค์และสามัญสำนึกท่ามกลางคุณสมบัติอื่น ๆ ของมนุษย์ได้อย่างไร", Scientific American , vol. 320 เลขที่ 5 (พ.ค. 2019), หน้า 58–63
  • Myers, Courtney Boyd ed. (2552). "ไอรายงาน" ที่จัดเก็บ 29 กรกฎาคม 2017 ที่เครื่อง Wayback Forbesมิถุนายน 2552
  • ราฟาเอลเบอร์แทรม (2519) คิดคอมพิวเตอร์ WHFreeman และ บริษัท ISBN 978-0-7167-0723-3. สืบค้นจากต้นฉบับเมื่อ 26 กรกฎาคม 2020 . สืบค้นเมื่อ22 สิงหาคม 2563 .
  • Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98 เลขที่ 3 (พฤษภาคม / มิถุนายน 2019), หน้า 135–44 "เทคโนโลยี AI ในปัจจุบันมีประสิทธิภาพ แต่ไม่น่าเชื่อถือระบบที่ใช้กฎไม่สามารถจัดการกับสถานการณ์ที่โปรแกรมเมอร์ของพวกเขาไม่คาดคิดได้ระบบการเรียนรู้ถูก จำกัด โดยข้อมูลที่พวกเขาได้รับการฝึกฝนความล้มเหลวของ AI ได้นำไปสู่โศกนาฏกรรมแล้วคุณลักษณะอัตโนมัติขั้นสูงในรถยนต์ แม้ว่าพวกเขาจะทำงานได้ดีในบางสถานการณ์ แต่ก็ขับรถโดยไม่มีการเตือนไปยังรถบรรทุกกำแพงคอนกรีตและรถที่จอดอยู่ในสถานการณ์ที่ไม่ถูกต้องระบบ AI จะเปลี่ยนจาก supersmart ไปเป็น superdumb ในทันทีเมื่อศัตรูพยายามจัดการและแฮ็ก AI ระบบความเสี่ยงก็ยิ่งมากขึ้น” (หน้า 140. )
  • เซเรนโกอเล็กซานเดอร์ (2010). "การพัฒนาของวารสาร AI จัดอันดับขึ้นอยู่กับวิธีการตั้งค่าเปิดเผย" (PDF) วารสารสารสนเทศศาสตร์ . 4 (4): 447–459 ดอย : 10.1016 / j.joi.2010.04.001 . เก็บถาวร (PDF)จากเดิมในวันที่ 4 ตุลาคม 2013 สืบค้นเมื่อ24 สิงหาคม 2556 .
  • เซเรนโก, อเล็กซานเดอร์; ไมเคิลโดฮาน (2011). "การเปรียบเทียบการสำรวจและการอ้างอิงวารสารผลกระทบผู้เชี่ยวชาญวิธีการจัดอันดับ: ตัวอย่างจากสนามปัญญาประดิษฐ์" (PDF) วารสารสารสนเทศศาสตร์ . 5 (4): 629–649 ดอย : 10.1016 / j.joi.2011.06.002 . เก็บถาวร (PDF)จากเดิมในวันที่ 4 ตุลาคม 2013 สืบค้นเมื่อ12 กันยายน 2556 .
  • Tom Simonite (29 ธันวาคม 2014). "2014 Computing: นวัตกรรมใหม่ในปัญญาประดิษฐ์" รีวิวเทคโนโลยีเอ็มไอที
  • Sun, R. & Bookman ลิตร (บรรณาธิการ). การคำนวณสถาปัตยกรรม: การบูรณาการประสาทและกระบวนการสัญลักษณ์ สำนักพิมพ์วิชาการ Kluwer, Needham, MA พ.ศ. 2537
  • เทย์เลอร์, พอล, "ซับซ้อนอย่างบ้าคลั่ง, ไม่เพียงพออย่างไร้ความหวัง" (บทวิจารณ์ของBrian Cantwell Smith , The Promise of Artificial Intelligence: Reckoning and Judgement , MIT, ตุลาคม 2019, ISBN  978 0262 04304 5 , 157 หน้า; Gary Marcusและ Ernest Davis, Rebooting AI: Building Artificial Intelligence We Can Trust , Ballantine, September 2019, ISBN  978 1 5247 4825 8 , 304 หน้า; Judea Pearlและ Dana Mackenzie, The Book of Why: The New Science of Cause and Effect , Penguin, May 2019, ISBN  978 0 14 198241 0 , 418 pp.), London Review of Books , vol. 43 เลขที่ 2 (21 มกราคม 2564), หน้า 37–39 พอลเทย์เลอร์เขียน (หน้า 39):“ บางทีอาจมีข้อ จำกัด ในสิ่งที่คอมพิวเตอร์สามารถทำได้โดยไม่รู้ว่ามันกำลังจัดการกับการนำเสนอที่ไม่สมบูรณ์ของความเป็นจริงภายนอก
  • Tooze, Adam , "Democracy and its Discontents", The New York Review of Books , vol. LXVI เลขที่ 10 (6 มิ.ย. 2019), หน้า 52–53, 56–57 "ประชาธิปไตยไม่มีคำตอบที่ชัดเจนสำหรับการดำเนินการอย่างไร้เหตุผลของระบบราชการและอำนาจทางเทคโนโลยีเราอาจได้เห็นการขยายตัวของมันในรูปแบบของปัญญาประดิษฐ์และหุ่นยนต์ในทำนองเดียวกันหลังจากหลายทศวรรษแห่งการเตือนภัยที่เลวร้ายปัญหาสิ่งแวดล้อมก็ยังคงไม่ได้รับการแก้ไข .... ภัยพิบัติจากระบบราชการและความหายนะด้านสิ่งแวดล้อมเป็นความท้าทายที่มีอยู่อย่างช้าๆซึ่งระบอบประชาธิปไตยต้องรับมืออย่างเลวร้าย .... ในที่สุดก็มีภัยคุกคามที่เกิดขึ้น: บริษัทและเทคโนโลยีที่พวกเขาส่งเสริม " (หน้า 56–57.)

  • “ ปัญญาประดิษฐ์” . สารานุกรมปรัชญาอินเทอร์เน็ต.
  • Thomason, ริชมอนด์ "ตรรกะและปัญญาประดิษฐ์" . ในZalta, Edward N. (ed.)