ปัญญาประดิษฐ์ (ปป.) จะมาช่วยหรือมาป่วนเรา

ปัญญาประดิษฐ์ (ปป.) จะมาช่วยหรือมาป่วนเรา

คนเราส่วนใหญ่ไม่รู้จัก AI หรือปัญญาประดิษฐ์ ได้ยินแบบเพียงเขาเล่าว่าเท่านั้น ผมเองก็อยากรู้ เลยลองถามแอป (application) ChatGPT ว่า AI ทำอะไรได้บ้าง คำถามนี้คงง่ายมากสำหรับแอปดังกล่าว คำตอบพรั่งพรูออกมาบนจอโทรศัพท์มือถือ สรุปเป็นตัวอย่างการใช้งานที่สำคัญ ดังนี้

• การประมวลผลภาษา เช่น แปลภาษา, ตอบคำถาม (e.g. ChatGPT),

• การสรุปเนื้อหาจากเอกสาร,

ADVERTISMENT

• การรู้จำภาพและวีดีโอ เช่น ตรวจจับใบหน้าและวัตถุ, วิเคราะห์ภาพทางการแพทย์ (e.g. ตรวจหามะเร็งจากภาพเอ็กซ์เรย์), ระบบขับขี่อัตโนมัติของรถยนต์,

• การเรียนรู้เชิงลึกและการวิเคราะห์ข้อมูล เช่น ทำนายแนวโน้มทางธุรกิจและตลาดหุ้น, วิเคราะห์พฤติกรรมลูกค้าเพื่อการตลาด, ตรวจจับการฉ้อโกงทางการเงิน

ADVERTISMENT

• การสร้างหุ่นยนต์และระบบอัตโนมัติ เช่น หุ่นยนต์ช่วยงานในโรงงานอุตสาหกรรม, ระบบ chatbot ตอบลูกค้าอัตโนมัติ, ระบบช่วยผู้ใช้โทรศัพท์มือถือ (e.g. Siri),

• การสร้างสรรค์ผลงาน เช่น สร้างภาพและวีดิโอจากข้อความ (e.g. สร้างงานศิลปะ, เขียนบทกวี, เขียนบทความ, เขียนนิยาย, ปลอมแปลงข่าว, เลียนเสียงบุคคล, เขียนโค้ดโปรแกรม,

นอกจากนี้ AI ยังจะพัฒนาต่อไปและมีบทบาทมากขึ้นเรื่อย ๆ จนหลายประเทศหวังผูกขาดหรือมีอิทธิพลเหนือตลาด ขณะเดียวกัน มีผู้ที่มอง AI ในแง่ร้ายหลายประการ แล้วก็มีผู้ที่ทำใจกับ AI ว่าอะไรจะเกิดก็ต้องเกิด เตรียมรับมือไว้ให้ดีก็แล้วกัน ไหน ๆ ถาม Chat GPT ว่า AI ทำอะไรได้บ้างแล้ว ผมเลยถามต่อไปว่า ถ้าพัฒนา AI อย่างไม่ระมัดระวัง จะมีอันตรายอะไรบ้าง และได้คำตอบดังนี้

• อันตรายต่อความปลอดภัยและความมั่นคง เช่น อาวุธอัตโนมัติ (e.g. โดรน) ที่ตัดสินใจโจมตีเองโดยไม่มีมนุษย์ควบคุม, การโจมตีทางไซเบอร์ที่ทรงพลัง, ข้อมูลปลอมเพื่อการหลอกลวงในทางการค้าหรือการเมือง

• อันตรายต่อเศรษฐกิจและแรงงาน เช่น การแทนที่แรงงานมนุษย์ในงานอัตโนมัติที่ทำให้แรงงานในโรงงาน ในงานบริการลูกค้า แม้แต่นักข่าวตกงาน, การผูกขาดทางเทคโนโลยีและข้อมูล
• อันตรายจากการสูญเสียความควบคุม เช่น AI อาจพัฒนาตนเองจนไม่ต้องพึ่งพามนุษย์ และตัดสินใจที่ขัดแย้งกับผลประโยชน์ของมนุษย์

เพื่อลดความเสี่ยง ChatGPT เสนอแนะให้

• พัฒนา AI อย่างมีจรรยาบรรณและโปร่งใส

• มีการกำกับดูแลและกฎหมายควบคุม AI

• พัฒนาให้ AI สามารถอธิบายการตัดสินใจของตัวเองได้

• สร้างมาตรฐานสากลเกี่ยวกับความปลอดภัยของ AI

ผมเดาว่า AI นั้นสารพัดรู้ แต่ไม่มีจิตสำนึก ไม่เคยฝึกเพื่อพัฒนาจิตวิญญาณของตน จึงน่าสนใจว่า AI จะสามารถอธิบายเรื่องที่ตนไม่มีประสบการณ์ตรงได้หรือไม่ เรื่องนี้พอสืบค้นก็พบว่า มีคนสนใจถาม AI และได้คำตอบมาแล้ว (ดู https://weoneness.com/idg-talkwithai/) ผู้ถามถาม AI หลายคำถาม แต่จะขอยกเพียงคำถามแรกมาเป็นตัวอย่างในที่นี้ เพื่อให้ผู้อ่านไปคิดเอาเองว่า คำตอบของ AI ในเรื่องที่ AI ไม่รู้เอง รู้จากข้อมูลของคนอื่นนั้น พอใช้ได้ไหม

ถาม AI: เป้าหมายสูงสุดของการเดินทางทางจิตวิญญาณคืออะไร

AI ตอบ: เป็นเรื่องส่วนบุคคล แต่ละคนก็แตกต่างกัน แต่ก็มีเป้าหมายทั่วไปที่เป็นความตั้งใจของคนส่วนใหญ่ เช่น

ค้นพบตัวตนแท้: การเข้าใจและรู้จักตัวเองจริง ๆ เพื่อสร้างความเชื่อมโยงและสัมพันธ์ที่ดีกับคุณค่าและความต้องการของตนเอง

พัฒนาความสัมพันธ์กับผู้อื่น: เพื่อสร้างความสัมพันธ์ที่ดีและเชื่อมโยงกับผู้คนในชีวิต เสริมสร้างความสุขและความเต็มใจในการมีความสัมพันธ์ที่เติบโตและเข้าใจกันได้

พัฒนาความเข้าใจโลกและแสดงความเห็น: การเข้าใจโลกและความรู้ที่ลึกซึ้งต่าง ๆ ทำให้สามารถแสดงความเห็นที่มีคุณค่าและกระตือรือร้นในสังคม

พัฒนาความสง่างามและความสุข: ตระหนักถึงความสุขและความพึงพอใจในสิ่งที่ทำและสิ่งที่เป็น

การเดินทางทางจิตวิญญาณเป็นกระบวนการที่ต้องใช้เวลาและความพยายามในการพัฒนาและเติบโต จำเป็นต้องกำหนดเป้าหมาย และวางแผนดำเนินการที่ชัดเจนให้เหมาะสมกับเป้าหมาย

ดูเหมือนว่าโดยอาศัย AI ผมเขียนบทความได้สบาย ๆ โดยการลอกข้อความของเขามา แต่กระนั้น ผมควรลองฝึกค้นความเห็นอื่น ๆ บ้าง

ความเห็นต่อไปนี้เป็นของนักประวัติศาสตร์ชื่อ ยูวัล โนอาห์ ฮารารี เขาเขียนไว้ในหนังสือชื่อ Nexus (ซึ่งน่าจะหมายถึงปมเชื่อมต่อในเครือข่ายการสื่อสาร) ว่า แม้ AI มีคุณอนันต์ แต่ก็มีศักยภาพที่จะทำลายอารยธรรมของมนุษย์ คนที่มองในแง่ดีมักยกตัวอย่างของการปฏิวัติอุตสาหกรรม ซึ่งในตอนเริ่มต้น มีคนทำนายว่าจะทำลายสังคมมนุษย์ แต่ในปัจจุบัน เกือบทุกคนเห็นว่า สุดท้ายแล้ว การปฏิวัติอุตสาหกรรมยังประโยชน์มหาศาลอย่างที่ไม่เคยมีมาก่อนแก่สังคมมนุษย์ อย่างไรก็ดี อย่าลืมว่ากว่าจะมาถึงคำว่า “สุดท้ายแล้ว” เราสูญเสียอะไรไปบ้าง

ยูวัลเตือนความจำว่า ในช่วงคริสต์ศตวรรษที่ 19 ประเทศที่พัฒนาอุตสาหกรรม เริ่มตั้งแต่ประเทศต้นกำเนิดคือประเทศอังกฤษ ตามด้วยประเทศต่าง ๆ ในยุโรป รวมถึงรัสเซีย สหรัฐฯ และญี่ปุ่น ต่างเปิดรับความคิดจักรวรรดินิยม ด้วยตรรกะง่าย ๆ ว่า ประเทศอุตสาหกรรมต้องการวัตถุดิบและต้องการตลาด และการไปยึดครองประเทศที่อ่อนแอกว่าก็เพื่อให้แน่ใจว่าจะมีทั้งวัตถุดิบและตลาดระบายสินค้าอุตสาหกรรมตามที่จำเป็น อีกทั้งยังบอกตนเองให้เชื่อว่า นี่เป็นการเผยแผ่อารยธรรมอันดีงามเพื่อให้ประเทศที่ล้าหลังได้รับอานิสงส์จากความก้าวหน้าทางวัตถุและความเชื่อทางศาสนาของประเทศเจ้าอาณานิคม

ลัทธิจักรวรรดินิยมมีผลพวงเป็นลัทธิเผด็จการเบ็ดเสร็จ (totalitarianism) นำโดยสตาลินและฮิตเลอร์ เป็นต้น ลัทธินี้อธิบายว่า การปฏิวัติอุตสาหกรรมเป็นเหมือนเตาหลอมอันกว้างใหญ่ ที่ซึ่งโครงสร้างสังคมก่อนหน้านั้นจะหลอมละลาย ไปพร้อมกับความไม่สมบูรณ์แบบและความอ่อนแอต่าง ๆ นานาของมนุษย์ เพื่อเปิดโอกาสให้สังคมสมบูรณ์แบบ ที่ประกอบด้วยมนุษย์ผู้ผุดผ่องดั่งทองแท้ได้ผุดบังเกิดขึ้น อย่างไรก็ดี กว่าสังคมจะได้ข้อสรุปว่า มีวิธีที่ดีกว่านี้ในการสร้างสังคมอุตสาหกรรม ก็ต้องใช้เวลาเป็นศตวรรษของการโต้เถียง การคลำทาง การทำสงครามโลก การทำสงครามเย็น ซึ่งได้ทำลายชีวิตผู้คนไปหลายสิบล้านคน อีกทั้งยังทำลายความสมดุลทางนิเวศวิทยาไปไม่น้อย เช่น ระหว่างปี ค.ศ. 1970 ถึง 2014 มีการประมาณว่า ประชากรของสัตว์ที่มีกระดูกสันหลัง ได้ลดลง 60% อีกทั้งโลกปัจจุบันกำลังเผชิญกับภาวะโลกร้อน อันเนื่องมาแต่การพัฒนาอุตสาหกรรมที่มีประโยชน์มาก แต่ก็ยังไม่ยั่งยืน และยังเป็นภัยคุกคามที่มีมาไม่สิ้นสุด

มาถึงปลายคริสต์ศตวรรษที่ 20 เป็นที่ประจักษ์ว่า จักรวรรดินิยม, เผด็จการเบ็ดเสร็จ, และลัทธิทหาร (militarism) ล้วนไม่ใช่อุดมการณ์ที่ดีในการสร้างสังคมอุตสาหกรรม และแม้ว่าประชาธิปไตยเสรีจะมีข้อบกพร่อง แต่ก็เป็นทางเลือกที่ดีกว่าเพื่อน ด้วยเหตุที่ว่าประชาธิปไตยเสรี มีกลไกที่ทรงพลังในการแก้ไขข้อผิดพลาดด้วยตนเอง (self-correction) ซึ่งยูวัลถือว่าเป็นกลไกที่สำคัญที่สุดของโครงสร้างใด ๆ ด้วยเหตุที่กลไกนี้จะช่วยจำกัดความคลั่งไคล้ (fanaticism), คงรักษาความสามารถในการยอมรับความผิดพลาด, และเปิดโอกาสให้มีการแก้ไขความผิดพลาดนั้น ๆ

แต่กระนั้น คงทราบดีว่าประชาธิปไตยเสรีกำลังเผชิญกับความท้าทายต่าง ๆ เช่น ประเทศที่เป็นผู้นำในเรื่องนี้กำลัง “ถอยหลังเข้าคลอง” หันไปใช้นโยบายการเมืองที่ไม่คอยเสรี (illiberal) เพราะแซมด้วยแนวคิดชาตินิยมคับแคบ (ชาติเราต้องมาก่อนชาติอื่น), การกีดกันทางการค้า, การข่มขู่ที่มีนัยเป็นการละเมิดอธิปไตยของประเทศอื่น ฯลฯ

ยูวัลเสนอหลักการ 4 ประการเพื่อพัฒนาประชาธิปไตยเสรีในยุคของ AI ให้หยั่งรากต่อไปดังนี้

• มีจิตเมตตา คือใช้ข้อมูลเพื่อประโยชน์ของเจ้าของข้อมูลเป็นสำคัญ ดุจหมอประจำครอบครัว ที่เก็บข้อมูลของคนไข้เพียงเพื่อการรักษาพยาบาล

• กระจายและถ่วงดุลอำนาจ โดยมีข้อมูลเก็บไว้หลายแห่ง อาทิ หน่วยงานของรัฐ ศาล สื่อ มหาวิทยาลัย หน่วยงานธุรกิจ องค์กรพัฒนาเอกชน โดยมีการตรวจสอบข้อมูลไขว้ระหว่างกัน เพื่อให้ระบบใช้เป็นกลไกแก้ไขข้อผิดพลาดได้เอง

• ถ้อยทีถ้อยปฏิบัติ ถ้าระบอบประชาธิปไตยเฝ้าระวังปัจเจกบุคคลอย่างเข้มข้น ก็ต้องเพิ่มการเฝ้าระวังหน่วยงานของรัฐบาล และธุรกิจเอกชนให้พอ ๆ กัน

• ยอมเปลี่ยนแปลงบ้าง ยอมหยุดเปลี่ยนแปลงบ้าง ตัวอย่าง ระบบวรรณะของอินเดียไม่ยอมเปลี่ยนเพราะคิดว่าเป็นระเบียบของพระเจ้า อีกด้านหนึ่ง คือระบบการเมืองที่บังคับพลเมืองให้เปลี่ยนนิสัยหรือพฤติกรรมอย่างไม่หยุดยั้ง

อีกประเด็นหนึ่งที่ยูวัลเตือนให้ระวัง คือแนวโน้มสู่ความไร้ระเบียบหรืออนาธิปไตย ประชาธิปไตยต้องการการถกแถลง/อภิปรายอย่างจริงจังของพลเมือง เพื่อการตัดสินใจของพลเมืองด้วย “โยนิโสมนสิการ” (รอบคอบ ไม่ประมาท และเป็นกุศล) ปรากฏว่าข้อความที่ส่งลงแพลตฟอร์มดิจิทัลจำนวนมากยิ่งขึ้นทุกที ส่งมาจาก “bot” ที่เป็นตัวกระทำดิจิทัล ไม่ใช่มนุษย์ ยูวัลอ้างการศึกษาจำนวนข้อความที่ส่งลงบนโปรแกรม “ทวีต” ระหว่างการหาเสียงเลือกตั้งประธานาธิบดีสหรัฐฯ ในปี ค.ศ. 2016 พบว่าประมาณ 20% เป็นข้อความมาจาก bot และในการเลือกตั้งปี ค.ศ. 2020 จำนวนข้อความจาก bot เพิ่มขึ้นเป็นประมาณ 43% แสดงว่าความเห็นทางการเมืองที่ผู้มีสิทธิเลือกตั้งได้รับนั้น มีสัดส่วนมากทีเดียวที่มาจากคอมพิวเตอร์ ถ้ามีการใช้ AI มากยิ่ง ๆ ขึ้นในทางการเมือง bot กำลังมาแทนประชาชนเลยหรือ ระบอบจะเพี้ยนไปเป็น “บอตธิปไตย” ซึ่งเข้าข่ายการเป็นอนาธิปไตยมากยิ่งขึ้น

ยูวัลให้ข้อสังเกตว่า ในอดีต เครือข่ายการสื่อสารเป็นเครือข่ายระหว่างมนุษย์ ไม่ว่าจะเป็นแบบปากต่อปาก ผ่านการเขียน งานศิลปะ หนังสือ วิทยุ โทรทัศน์ ฯลฯ การโทรคมนาคมได้สร้างเครือข่ายการสื่อสารที่อาศัยคลื่นแม่เหล็กไฟฟ้า แต่เนื้อหายังมาจากคน ต่อไปโดยอาศัยเทคโนโลยี AI จะเป็นการสื่อสารระหว่างคนกับคอมพิวเตอร์ และระหว่างคอมพิวเตอร์กับคอมพิวเตอร์มากยิ่งขึ้น และคอมพิวเตอร์ก็ยิ่งดียิ่งฉลาด เรียนรู้ได้เอง และมีพลังสร้างสรรค์สิ่งใหม่ ๆ ที่มนุษย์เองไม่ทันได้คิด มีคนบอกว่า เรื่องนี้ไม่น่ากลัว เชื่อว่ามนุษย์เราเอาอยู่ แต่ก็ไม่แน่ใช่ไหม?

ยูวัลในฐานะนักประวัติศาสตร์ มองว่าเทคโนโลยี AI มีความสำคัญพอ ๆ กับเทคโนโลยีพลังงานที่นำสังคมเปลี่ยนผ่านสู่ยุคอุตสาหกรรมอย่างยากลำบากมาแล้ว คราวนี้ลองมาฟังความเห็นของนักปรัชญาดูบ้าง ได้แก่อาจารย์โสรัจจ์ หงศ์ลดารมภ์ จากภาควิชาปรัชญา คณะอักษรศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ซึ่งสืบค้นความเห็นได้ที่ https://www.chula.ac.th/cuinside/2508/ อาจารย์โสรัจจ์เท้าความว่า “แนวคิดปัญญาประดิษฐ์มีจุดเริ่มต้นตั้งแต่สมัยสงครามโลกครั้งที่ 2 โดยแนวคิดของ อลัน ทัวริ่ง บิดาของคอมพิวเตอร์ยุคใหม่ ที่มีเกณฑ์ในการตรวจสอบว่า AI ไหนเป็น AI ขั้นสูงจริง จะต้องให้คนมาคุย ถ้าคุยแล้วคนไม่รู้ว่าเป็นคอมพิวเตอร์ ถึงจะถือว่าผ่านการทดสอบ ทุกวันนี้ยังไม่มี AI ชนิดใดทำได้ แต่ที่ทำได้ก็มีมากมาย เช่น การแปลภาษา อัลฟ่าโกะ AI ที่เล่นโกะชนะคน แต่ถ้าจะเป็น AI ขั้นสูงจริงแบบที่คนกลัวนั้น ในอีก 20-30 ปีนี้ ไม่น่าจะเป็นไปได้”

เงื่อนไขสำคัญของการมีตัวตนและมีความคิดคือการมีจิตรู้สำนึก (Consciousness) ซึ่งเป็นสิ่งซับซ้อนและยากที่คอมพิวเตอร์จะสามารถเลียนแบบมนุษย์ และมีความเกี่ยวข้องกับการมีร่างกาย ความคิดที่จะเป็นส่วนหนึ่งของร่างกาย หรือการคิดแบบมนุษย์คิด “ต้องถามก่อนว่า AI เข้าใจไหมกับสิ่งที่ตนเองกำลังทำอยู่ คือทำงานแล้ว คิดของมันเอง ทำได้ แต่มันอยู่ที่ว่ามันรู้ตัวไหมว่ามันกำลังทำงาน อย่างแปลภาษา มันแปลได้ แต่มันเข้าใจจริง ๆ ไหมว่ามันแปลอะไร รู้จริงไหม คือมันเป็นเรื่องซับซ้อนถ้าจะให้ AI มีจิตสำนึกแบบมนุษย์ มันอาจจะต้องเป็นมนุษย์ก่อน และต้องอาศัยเวลามาก เพราะการเป็นมนุษย์ไม่ใช่อยู่ดี ๆ ก็เป็น มันต้องมีพัฒนาการ ต้องอยู่ในชุมชนมนุษย์ ต้องผ่านวิวัฒนาการทางภาษา ประสบการณ์ อะไรต่ออะไรมาก”

อาจารย์โสรัจจ์แสดงทัศนะว่า มนุษย์ย่อมกลัวการที่ตัวเองจะถูกแทนที่ด้วยสิ่งไม่มีชีวิต กลัวการไม่มีที่อยู่ กลัวการสูญพันธุ์ การที่มนุษย์กลัว AI ก็เพราะความไม่รู้ว่า AI จะเป็นอย่างไร กลัวหุ่นยนต์ครองโลกเหมือนในภาพยนตร์ฮอลลีวู้ดหลาย ๆ เรื่อง “ผมมองว่า ถ้าหุ่นยนต์ครองโลกแล้วมันจะเสียหายตรงไหน ถึงไม่มีมนุษย์ แต่ถ้ามีสิ่งที่ฉลาดกว่า มีประสิทธิภาพกว่ามนุษย์ขึ้นมาแทน เราก็ควรเปลี่ยนไปตามพัฒนาการที่มันเกิด เหมือนว่าจิตสำนึกของความเป็นมนุษย์ถูกย้ายจากจุดหนึ่งไปจุดหนึ่ง ซึ่งในที่นี้ก็คือ AI ไม่ได้หายไปแต่ถูกแทนที่”

อาจารย์โสรัจจ์บอกอีกว่า ความท้าทายในเชิงประเด็นจริยธรรมของการอยู่ร่วมกัน ระหว่าง AI กับมนุษย์ก็เป็นอีกเรื่องหนึ่งที่น่าสนใจ ย้อนกลับไปหลายสิบปี ไอแซค อาสิมอฟ นักเขียนนิยายวิทยาศาสตร์ผู้ยิ่งใหญ่ได้ให้กฎหุ่นยนต์ 3 ข้อ โดยมีสาระสำคัญอยู่ที่หุ่นยนต์ต้องไม่ทำร้ายมนุษย์ ซึ่งเป็นแนวคิดหลักในการพัฒนาหุ่นยนต์ แต่ในปัจจุบัน “จริยธรรมสำคัญที่เราต้องมาตั้งคำถามคือ ทุกวันนี้เรามีหุ่นยนต์สงครามแล้ว มีปืนกลที่ตรวจจับคนด้วยระบบเซ็นเซอร์ มีเครื่องบินไอพ่นไร้คนขับ ทำไมเราไม่มองกันตรงนี้เลย ยังไม่รวมถึงในโลกออนไลน์ที่หุ่นยนต์เข้าถึงข้อมูลส่วนตัวเราได้ง่ายมาก ๆ แล้วถ้าวันดีคืนดีข้อมูลเราถูกนำไปใช้ทำอะไรขึ้นมาจะเป็นอย่างไร”

ผมชอบตรงที่อาจารย์โสรัจจ์ยืนยันว่า AI ยังไม่มีสำนึกรู้ในสิ่งที่ตนทำ ตัวอย่างคำถาม-คำตอบเกี่ยวกับเป้าหมายการเดินทางทางจิตวิญญาณที่ยกมาข้างต้น แม้ AI จะตอบได้ แต่ AI คงไม่ได้เดินทางเองทางจิตวิญญาณ อาจารย์โสรัจจ์เชื่อว่า AI ไม่สามารถสร้างจิตสำนึกแบบมนุษย์ขึ้นมาได้ในเร็ววัน และถ้าวันหนึ่ง หุ่นยนต์จะมาแทนที่มนุษย์ เพราะมันเก่งกว่า ก็ควรคิดว่ามันเป็นเช่นนั้นเอง จะไปกลัวอะไร ปัจจุบัน เราควรกลัวในเรื่องคนตกงาน หรือการใช้หุ่นยนต์เป็นอาวุธในการเข่นฆ่ามนุษย์ โดยบังคับของมนุษย์ด้วยกันเองนั่นแหละ

มีนักคิดอีกคนหนึ่งที่ตั้งคำถาม เขาชื่อฮูตัน อัชราเฟียน คำถามที่เขาตั้งคือ “AI อาจป่วยเป็นโรคจิตได้หรือไม่?” (ดู https://pmc.ncbi.nlm.nih.gov/articles/PMC5364237/) แล้วเขาพยายามตอบคำถามนี้เองว่า หุ่นยนต์ที่ใช้เทคโนโลยี AI มีศักยภาพที่วันหนึ่งจะพัฒนาจิตสำนึก ความรู้สึก และความมีเหตุผล คือ มีรูป-มีนาม หรือมีจิตใจ (mind) เมื่อถึงจุดนั้น จิตของหุ่นยนต์ AI ก็อาจทำงานผิดปกติ คล้ายคนที่เป็นโรคจิตเภทนั่นเอง ถ้าคล้อยตามกฎของเมอร์ฟีที่ว่า “If anything can go wrong, it will” (ถ้าสิ่งใดอาจผิดพลาดได้ สิ่งพลาดนั้นก็จะเกิด) อัชราเฟียนจึงเสนอให้เริ่มศึกษาและทำความเข้าใจในเรื่องนี้ ไม่เพียงเฉพาะเพื่อป้องกันรักษาหุ่นยนต์ที่อาจเป็นโรคจิตเท่านั้น ความเข้าใจในเรื่องนี้ อาจย้อนกลับมาช่วยป้องกันและรักษาคนที่ป่วยเป็นโรคจิตได้ด้วย

นั่นเป็นการมองการณ์ไกล อาจารย์โสรัจจ์มองว่าปัญหาเฉพาะหน้าคือคนตกงานและการผลิตหุ่นยนต์เป็นอาวุธ ยูวัลมองว่าประชาธิปไตยเสรีจะไปต่อได้อย่างไรถ้า bot เข้ายึดแพลตฟอร์มการสื่อสารออนไลน์ได้มากขึ้นทุกที ผู้นำประเทศหลายประเทศต่างมีปฏิกิริยาหรือความเห็นต่างกันในเรื่องนี้ ผู้ไม่เกรงฟ้าดินอย่างโดนัล ทรัมป์ ประกาศชัดเจนว่า สหรัฐฯต้องเป็นผู้นำและผู้กำหนดกติกา โดยกล่าวว่าจะลงทุนในการพัฒนา AI จำนวน 500 พันล้านดอลลาร์ เขาส่งรองประธานาธิบดี เจดี แวนซ์ไปร่วมประชุมสุดยอดเรื่อง “ปฏิบัติการ AI” ที่กรุงปารีส เมื่อวันที่ 11 -12 กุมภาพันธ์ 2568 แต่สหรัฐฯปฏิเสธที่จะลงนามในคำแถลงของประเทศ 58 ประเทศ และของสหภาพยุโรปและสหภาพแอฟริกา โดยสหรัฐฯให้เหตุผลว่า “กฎข้อบังคับที่มากเกินไปในการพัฒนาปัญญาประดิษฐ์อาจทำลายอุตสาหกรรมที่มีความเปลี่ยนแปลงได้ตลอดเวลานี้ ในตอนที่มันเพิ่งเริ่มออกตัวเท่านั้น … AI คือโอกาสที่รัฐบาลทรัมป์จะไม่ยอมให้เสียไป และนโยบาย AI เพื่อการเติบโต ควรได้รับความสำคัญมากกว่าความปลอดภัย”

อีกประเทศหนึ่งที่ไม่ยอมร่วมลงนามในคำแถลงคือสหราชอาณาจักร โดยให้เหตุผลว่า เราต้องการ “หลักประกันที่สมดุลระหว่างโอกาสและความมั่นคง” (ดู https://www.thairath.co.th/news/foreign/2841377)

ขอย้อนไปถึงที่มาของการจัดประชุมสุดยอดเรื่อง AI ที่ปารีส ซึ่งถือเป็นครั้งที่ 3 การประชุมครั้งแรกมีขึ้นเมื่อวันที่ 1-2 พฤศจิกายน 2566 ที่ Bletchley Park, Milton Keynes, สหราชอาณาจักร ส่วนครั้งที่ 2 จัดที่กรุงโซล เกาหลีใต้เมื่อวันที่ 21-22 พฤษภาคม 2567 การประชุมครั้งที่ 3 มีประเทศอินเดียและฝรั่งเศสร่วมเป็นเจ้าภาพ และจัดที่กรุงปารีสเมื่อวันที่ 11-12 กุมภาพันธ์ 2568

ในสุนทรพจน์เปิดการประชุม ประธานาธิบดีมากร็องกล่าวว่า “ยุโรปจะมียุทธศาสตร์ AI ร่วมกัน ส่วนฝรั่งเศสจะเข้าร่วมแข่งขันการพัฒนา AI ด้วย โดยจะใช้ยุทธศาสตร์มหาวิหารนอเตรอะดาม คือการวางเส้นเวลาที่ชัดเจนและการทำให้เห็นผลตามเวลาที่กำหนด” นอกจากนี้ มากร็องยังยืนยันหลายครั้งว่า ฝรั่งเศสมีแผนจะลงทุนพัฒนา AI จำนวน 109 พันล้านยูโรในหลายปีข้างหน้า

สุนทรพจน์เปิดงานของนายนาเรนดรา โมดี มีความน่าสนใจ เขากล่าวอย่างถ่อมตนว่าอินเดียมีเงินลงทุนได้น้อย เมื่อเทียบกับประเทศที่รุ่มรวย แต่กระนั้นก็มีทรัพยากรมนุษย์และโครงสร้างพื้นฐานด้านดิจิทัลที่ทั่วถึง เขาคิดว่า AI จะมีประโยชน์มากในด้านสุขภาพ การศึกษา และการเกษตร เป็นต้น แต่เราควรพัฒนา AI โดยคำนึงถึงระบบความมั่นคงของไซเบอร์ ระบบป้องกันการบิดเบือนข่าวสาร เช่น การปลอมที่ลงลึก (Deepfake) ประเด็นที่พึงพิจารณามี อาทิ การปรับใช้ AI ให้เข้ากับบริบทท้องถิ่น และการใช้พลังงานไฟฟ้าจำนวนมหาศาลที่จ่ายให้ศูนย์ข้อมูล ซึ่งสหรัฐฯบอกว่าจะรีบเจาะน้ำมันมาใช้และมาขายให้พอ ส่วนฝรั่งเศสบอกว่ามีโรงไฟฟ้านิวเคลียร์ที่พร้อมให้เสียบปลั๊กได้เลย นายโมดีลงท้ายสุนทรพจน์ของเขาว่า “บางคนกลัวว่าเครื่องจักรกลจะเก่งและฉลาดกว่ามนุษย์ แต่มีเพียงมนุษย์เท่านั้นที่มีกุญแจที่จะไขสู่อนาคตร่วมกัน ขอให้จิตสำนึกถึงความรับผิดชอบเป็นสิ่งที่จะนำทางเราไปข้างหน้า

คำแถลงของการประชุมสุดยอดสรุปย่อเป็น ประเด็นโดยสังเขปได้ดังนี้

• ทำให้ระบบนิเวศของ AI มีความหลากหลาย

• ส่งเสริมการเข้าถึง AI เพื่อลดช่องว่างทางดิจิทัล

• พัฒนา AI ที่เป็นระบบเปิด, รวมทุกฝ่าย, โปร่งใส, มีจรรยาบรรณ, ปลอดภัย, มั่นคง, ไว้ใจได้

• สร้างเงื่อนไขให้นวัตกรรม AI ได้เจริญเติบโต

• พัฒนา AI ในลักษณะที่เป็นคุณต่อการงานและตลาดแรงงานในอนาคต

• ทำ AI ให้มีผลด้านความยั่งยืนของผู้คนและโลกพิภพ

• นำไปสู่ความร่วมมือและการประสานงานในด้านธรรมาภิบาลระหว่างประเทศ

หวังว่าผู้อ่านมีข้อมูลพอสมควรเพื่อที่จะมองว่า AI มีข้อดี-ข้อเสียอะไรต่อมนุษย์ และเราควรร่วมมือกันเพื่อให้ AI เป็นตัวช่วย มิใช่ตัวป่วนได้อย่างไรดี ผู้อ่านอาจติดตามเรื่องนี้ต่อไป เมื่อประเทศไทยจะเป็นเจ้าภาพจัดประชุมเรื่อง AI ร่วมกับยูเนสโก ในวันที่ 24-27 มิถุนายน 2568 ที่กรุงเทพฯ

โคทม อารียา

QR Code
เกาะติดทุกสถานการณ์จาก Line@matichon ได้ที่นี่
Line Image