คณะกรรมการนวัตกรรมกลาโหมต้องการความคิดเห็นว่ากระทรวงกลาโหมควรใช้ปัญญาประดิษฐ์อย่างไร จะจัดเซสชันการรับฟังสาธารณะ ครั้งแรก ในสัปดาห์หน้า DIB กำลังมองหาข้อเสนอแนะเกี่ยวกับ AI ที่มีจริยธรรมและวิธีการใช้งานอย่างมีความรับผิดชอบ“เราเน้นย้ำถึงความรับผิดชอบในการใช้ AI ผ่านวิสัยทัศน์และแนวทางของเราในการใช้ AI อย่างปลอดภัย ถูกกฎหมายและมีจริยธรรม” Dana Deasy หัวหน้าเจ้าหน้าที่ฝ่ายข้อมูลของ DoD กล่าวในงาน AI เมื่อเดือนที่แล้ว “เราทำสิ่งนี้กับทุกเทคโนโลยีในอดีต และเราจะทำเพื่อ AI”
ในทำนองเดียวกัน พล.ท. แจ็ค “จอห์น” ชานาฮาน กล่าว
ในงานเดียวกันว่า DIB กำลังใช้ความพยายามเป็นเวลาหลายเดือนเพื่อพัฒนาหลักการเกี่ยวกับการใช้ AI ของ DoD ซึ่งเซสชันการฟังที่กำลังจะมีขึ้นจะเป็นส่วนหนึ่ง
แต่ AI เชิงจริยธรรมคืออะไรกันแน่? ข้อมูลการแลกเปลี่ยนอุตสาหกรรมของ Federal News Network: คุณใช้ประโยชน์จากข้อมูลอย่างเต็มที่เพื่อขับเคลื่อนการเปลี่ยนแปลงในหน่วยงานของคุณหรือไม่? เข้าร่วมกับเราในวันที่ 8 พฤษภาคมเพื่อค้นพบเทคนิคและเทคโนโลยีล่าสุดที่จะช่วยให้ทำเช่นนั้นได้
Jim Kurose ผู้ช่วยผู้อำนวยการของ National Science Foundation for Computer, Information, Science and Engineering ให้ความกระจ่างเกี่ยวกับหัวข้อดังกล่าวระหว่างการสัมมนาผ่านเว็บเมื่อวันที่ 27 กุมภาพันธ์ โดยพื้นฐานแล้ว AI ที่มีจริยธรรมคือปรัชญาที่ไม่ก่อให้เกิดอันตรายสำหรับวิธีการที่ผู้ปฏิบัติงานและผู้มีส่วนได้ส่วนเสียใช้เทคโนโลยี เขากล่าวว่าเป็นแนวคิดที่หน่วยงานด้านมาตรฐานสากลและองค์กรระหว่างรัฐบาลบางแห่งได้เริ่มหารือกันเมื่อเร็วๆ นี้ แต่ยังไม่มีผลงานจริงมากนัก
จากการอภิปรายขององค์กรเหล่านั้น เขาได้วางหลักการเบื้องต้นบางประการสำหรับกรอบการทำงานของ AI ที่มีจริยธรรม สิ่งเหล่านี้ไม่ได้ถูกกำหนดเป็นหินและยังไม่มีนโยบายอย่างเป็นทางการ
ประการแรก AI ที่มีจริยธรรมต้องมีองค์ประกอบด้านสิทธิมนุษยชน สิ่งนี้ใช้กับแนวคิดเรื่องความเป็นส่วนตัวของข้อมูลโดยเฉพาะ ระบบ AI ที่สอดคล้องตามหลักจริยธรรมจะต้องมีการควบคุมการเข้าถึงส่วนบุคคล เพื่อให้ผู้คนมีความสามารถในการปกป้องข้อมูลของตน พวกเขายังต้องคำนึงถึงความเป็นอยู่ที่ดีของมนุษย์และเศรษฐกิจ ประโยคที่ไม่เป็นอันตรายอย่างแท้จริง และให้แน่ใจว่าการเติบโตในการใช้งานนั้นยั่งยืน
เรื่องที่เกี่ยวข้องเคลวิน โดรเกไมเออร์
หัวหน้าวิทยาศาสตร์ทำเนียบขาว: ‘เราไม่มีเงื่อนงำ’ เกี่ยวกับจำนวนนักวิจัย AI
ปัญญาประดิษฐ์อ่านเพิ่มเติมเจไดกระทรวงกลาโหมฉีกกระดาษห่อของศูนย์ AI ร่วมแห่งใหม่
ปัญญาประดิษฐ์อ่านเพิ่มเติมDoD มองเห็นศักยภาพของ AI ในการรับมือกับความท้าทายด้านมนุษยธรรมและการบรรเทาภัยพิบัติ
ปัญญาประดิษฐ์อ่านเพิ่มเติมผู้สร้างและผู้ควบคุมระบบ AI จำเป็นต้องรับผิดชอบด้วยเช่นกัน ซึ่งจะรวมถึงกรอบกฎหมาย นอกจากนี้ยังต้องการความโปร่งใสเกี่ยวกับวิธีการใช้ AI ผู้คนจำเป็นต้องรู้ว่าข้อมูลของพวกเขาถูกใช้ไปเพื่ออะไร ด้วยเหตุนี้กรอบการทำงานของ AI ที่มีจริยธรรมควรรวมถึงนโยบายเพื่อให้ความรู้แก่ผู้คนและสร้างความตระหนักเกี่ยวกับระบบและข้อมูล สิ่งเหล่านี้สามารถช่วยลดความเสี่ยงของการใช้ในทางที่ผิด
แต่ยังรวมถึงการวิจัยเพิ่มเติมเกี่ยวกับวิธีการทำงานของระบบ AI สำหรับสิ่งหนึ่ง Kurose ได้ตั้งคำถามเกี่ยวกับความสามารถในการอธิบาย ซึ่งไปพร้อมกันด้วยความโปร่งใส
“ในสหรัฐอเมริกา DARPA ดำเนินโครงการวิจัยอย่างชัดเจนเกี่ยวกับการอธิบายผลลัพธ์ของระบบแมชชีนเลิร์นนิง” เขากล่าว “ดังนั้นเมื่อคำตอบออกมาหรือการคาดคะเนจากแมชชีนเลิร์นนิง หรือการจำแนกประเภทมาจากลักษณนามของแมชชีนเลิร์นนิง เราต้องการที่จะสามารถถามคำถามว่า ‘คำตอบนี้ออกมาได้อย่างไร’ หรืออาจจะ ‘ ทำไมคำตอบอื่นถึงไม่ออกมา?’ ให้ฉันบอกคุณว่านั่นเป็นปัญหาการวิจัยเชิงลึก”
นอกจากนี้ยังมีปัญหาในการตรวจสอบความเป็นธรรม ระบบ AI เป็นไปตามวงจรชีวิตมาตรฐาน: ออกแบบ พัฒนา ใช้งาน ดำเนินการ ตรวจสอบ และบำรุงรักษาระบบ
ผู้ออกแบบและผู้ดำเนินการระบบ AI ที่มีจริยธรรมจะต้องพิจารณา ถามอย่างต่อเนื่อง และตอบคำถามต่างๆ อย่างน่าพอใจเพื่อพิจารณาว่าอคติจะเกิดขึ้นที่ไหนและอย่างไร และความหมายของอคตินั้นคืออะไร“เมื่อเราสร้างระบบและออกแบบครั้งแรก มีขั้นตอนของการออกแบบที่ครอบคลุมหรือไม่” เขาถาม. “มีการเลือกอคติในข้อมูลหรือไม่? ข้อมูลเป็นตัวแทนของชุดข้อมูลทั้งหมดที่กำลังจะดำเนินการหรือไม่? เมื่อเราเลือกแบบจำลอง มีอคติจากการทดลองที่เกี่ยวข้องหรือไม่ มีอคติในการตรวจสอบหรือไม่? ดังนั้นเราจึง
Credit :เว็บสล็อตแท้ / สล็อตเว็บตรงไม่ผ่านเอเย่นต์