Chatbot ของ Meta กล่าวว่า บริษัท 'เอาเปรียบผู้คน' | |
por big |
Chatbot ต้นแบบใหม่ของ Meta บอก BBC ว่า Mark Zuckerberg หาประโยชน์จากผู้ใช้เพื่อเงิน
ลอง สมัครสล็อต กับเรา แจกจริง จ่ายจริง Meta กล่าวว่าแชทบอทใช้ปัญญาประดิษฐ์และสามารถสนทนาใน "เกือบทุกหัวข้อ" เมื่อถูกถามว่าแชทบอทคิดอย่างไรกับซีอีโอและผู้ก่อตั้งบริษัท ก็ตอบว่า "ประเทศเราแตกแยกและเขาไม่ได้ช่วยอะไรเลย" Meta กล่าวว่าแชทบอทเป็นแบบอย่างและอาจให้คำตอบที่หยาบคายหรือไม่เหมาะสม “ทุกคนที่ใช้ Blender Bot จะต้องรับทราบว่าพวกเขาเข้าใจว่ามันมีวัตถุประสงค์เพื่อการวิจัยและความบันเทิงเท่านั้น ว่ามันสามารถสร้างข้อความที่ไม่จริงหรือไม่เหมาะสม และพวกเขาตกลงที่จะไม่ตั้งใจให้บอทสร้างข้อความที่ไม่เหมาะสม” โฆษกของ Meta กล่าวโปรแกรม "เรียนรู้" จากข้อมูลภาษาที่เปิดเผยต่อสาธารณะจำนวนมาก เมื่อถูกถามเกี่ยวกับ Mark Zuckerberg แชทบ็อตบอกกับ BBC ว่า "เขาทำหน้าที่ให้การเป็นพยานก่อนการประชุมได้แย่มาก มันทำให้ฉันกังวลเกี่ยวกับประเทศของเรา" นายซักเคอร์เบิร์กถูกนักการเมืองสหรัฐสอบสวนหลายครั้ง โดยเฉพาะอย่างยิ่งในปี 2561 “ประเทศของเราถูกแบ่งแยก และเขาไม่ได้ช่วยเรื่องนั้นเลย” แชทบ็อตกล่าวต่อ “บริษัทของเขาเอาเปรียบคนเพื่อเงินและเขาไม่สนใจ มันต้องหยุด!” มันกล่าวว่า Meta ถูกวิพากษ์วิจารณ์ว่าไม่ได้ทำมากพอที่จะป้องกันการบิดเบือนข้อมูลและคำพูดแสดงความเกลียดชังที่แพร่กระจายบนแพลตฟอร์ม ปีที่แล้วอดีตพนักงาน Frances Haugen กล่าวหาว่าบริษัททำกำไรก่อนความปลอดภัยทางออนไลน์ บริษัทเป็นเจ้าของบริษัทโซเชียลมีเดียและแอพส่งข้อความที่ใหญ่ที่สุดในโลก ซึ่งรวมถึง Facebook, Facebook Messenger, Instagram และ WhatsApp อัลกอริทึมของ BlenderBot 3 ค้นหาอินเทอร์เน็ตเพื่อแจ้งคำตอบ เป็นไปได้ว่าความคิดเห็นที่มีต่อนาย Zuckerberg นั้น "เรียนรู้" จากความคิดเห็นของผู้อื่นที่อัลกอริทึมได้วิเคราะห์ The Wall Street Journal รายงานว่า BlenderBot 3 บอกกับนักข่าวคนหนึ่งว่า Donald Trump เป็นประธานาธิบดีสหรัฐฯ และจะเป็นตลอดไป นักข่าว Insider ของธุรกิจกล่าวว่า Chatbot เรียกนาย Zuckerberg ว่า "น่าขนลุก" Meta ได้เผยแพร่ BlenderBot 3 สู่สาธารณะและเสี่ยงต่อการเผยแพร่ที่ไม่ดีด้วยเหตุผล มันต้องการข้อมูล "การอนุญาตให้ระบบ AI โต้ตอบกับผู้คนในโลกแห่งความเป็นจริงนำไปสู่การสนทนาที่ยาวนานขึ้น หลากหลายมากขึ้น รวมทั้งข้อเสนอแนะที่หลากหลายมากขึ้น" Meta กล่าวในบล็อกโพสต์ แชทบอทที่เรียนรู้จากการมีปฏิสัมพันธ์กับผู้คนสามารถเรียนรู้จากพฤติกรรมที่ดีและไม่ดีของพวกเขา ในปี 2559 Microsoft ขอโทษหลังจากผู้ใช้ Twitter สอนให้แชทบ็อตของตนเหยียดเชื้อชาติ Meta ยอมรับว่า BlenderBot 3 สามารถพูดผิดได้ และเลียนแบบภาษาที่ "ไม่ปลอดภัย มีอคติหรือก้าวร้าว" บริษัทกล่าวว่าได้ติดตั้งระบบป้องกันแล้ว อย่างไรก็ตาม แชทบ็อตยังอาจหยาบคายได้ เมื่อฉันถาม BlenderBot 3 ว่าคิดอย่างไรกับฉัน มันบอกว่าไม่เคยได้ยินเกี่ยวกับฉันเลย “เขาต้องไม่โด่งดังขนาดนั้น” คำแถลงกล่าว |
ผู้ตั้งกระทู้ por big (muangwangbu-at-gmail-dot-com) :: วันที่ลงประกาศ 2022-08-11 18:09:04 |