Openai เพิ่งตีพิมพ์ขั้นตอนสำคัญในความพยายามที่จะลดความเสี่ยงที่อาจเกิดขึ้นจากโมเดล AI โดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับสาขาชีวภาพ บริษัท ได้รวมกลไกการตรวจสอบใหม่ที่ออกแบบมาเพื่อตรวจจับและป้องกันการสร้างผลิตภัณฑ์อันตรายจากรุ่น AI ของพวกเขา นี่คือการเคลื่อนไหวที่น่าทึ่งแสดงให้เห็นถึงการรับรู้อย่างลึกซึ้งเกี่ยวกับการใช้เทคโนโลยี AI ในทางที่ผิดในการสร้างอาวุธชีวภาพหรือเชื้อโรคที่เป็นอันตราย
บทความนี้จะให้รายละเอียดเกี่ยวกับกลไกการตรวจสอบใหม่ของ OpenAI เราจะเรียนรู้เกี่ยวกับวิธีการทำงานช่วงการป้องกันที่นำมาและความท้าทายที่ OpenAI เผชิญในการสร้างและใช้ระบบดังกล่าว การตรวจสอบที่มีประสิทธิภาพของแบบจำลอง AI ที่ซับซ้อนเป็นงานที่ยากมากซึ่งต้องมีการผสมผสานระหว่างเทคโนโลยีขั้นสูงในความรู้เชิงลึกเกี่ยวกับชีววิทยาและกรอบคุณธรรมที่แข็งแกร่ง
รายงานแสดงให้เห็นว่ากลไกใหม่นี้ไม่ได้เป็นเพียงตัวกรอง มันใช้อัลกอริธึมการเรียนรู้ของเครื่องขั้นสูงเพื่อวิเคราะห์อินพุตและเอาต์พุตของโมเดลเพื่อตรวจจับตัวอย่างหรือสัญญาณที่ผิดปกติว่าโมเดลกำลังถูกใช้เพื่อสร้างผลิตภัณฑ์ที่เป็นอันตราย Openai ยังเน้นถึงความจำเป็นในการร่วมมือระหว่างประเทศและการแบ่งปันข้อมูลในการตอบสนองต่อความเสี่ยงเหล่านี้ ไม่เพียงพอสำหรับ บริษัท เดียวหรือประเทศที่จะแก้ปัญหานี้
อย่างไรก็ตามบทความยังชี้ให้เห็นถึงข้อ จำกัด ของกลไกการตรวจสอบในปัจจุบันและความท้าทายที่ยังคงมีอยู่ การพัฒนาอย่างต่อเนื่องของเทคโนโลยี AI หมายความว่าความเสี่ยงใหม่จะปรากฏขึ้นอย่างต่อเนื่อง OpenAI จำเป็นต้องปรับปรุงและปรับปรุงกลไกการตรวจสอบอย่างต่อเนื่องเพื่อตอบสนองความท้าทายเหล่านี้ คำถามคือกลไกนี้แข็งแกร่งพอที่จะป้องกันความเสี่ยงที่อาจเกิดขึ้นทั้งหมดหรือไม่และสามารถนำไปใช้อย่างกว้างขวางในชุมชน AI หรือไม่
การต่อสู้กับความเสี่ยงจากชีววิทยา AI เพิ่งเริ่มขึ้น การเปิดตัวกลไกการตรวจสอบใหม่จาก OpenAI เป็นขั้นตอนสำคัญ แต่ก็ยังต้องการความพยายามมากขึ้นจากชุมชนวิทยาศาสตร์รัฐบาลและ บริษัท เทคโนโลยีเพื่อให้แน่ใจว่าเทคโนโลยี AI ได้รับการพัฒนาและใช้อย่างปลอดภัยและมีความรับผิดชอบ
#aisinhoc #Openai #Antoanai #nghiencuuai #congngheai #ruaroai #giamsatai #daoducai #Anninhsinhhoc #Congnghecao
Openai กล่าวว่าพวกเขาเพิ่งปรับใช้ระบบการตรวจสอบใหม่เพื่อควบคุมเนื้อหาการอนุมาน AI ล่าสุด -O3 และ O4-mini สำหรับเนื้อหาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพและสารเคมี เป้าหมายคือการป้องกันแบบจำลองของการให้คำแนะนำที่สามารถใช้ประโยชน์จากคนเลวเพื่อทำการโจมตีที่เป็นอันตราย
ตามรายงานความปลอดภัยที่ตีพิมพ์ใหม่ O3 และ O4-MINI เป็นขั้นตอนที่สำคัญเมื่อเทียบกับเวอร์ชันก่อนหน้า แต่ยังมีศักยภาพที่จะถูกเอาเปรียบเพื่อสร้างข้อมูลที่ละเอียดอ่อนโดยเฉพาะในด้านอาวุธชีวภาพ Openai ได้พัฒนาระบบที่เรียกว่า “การเฝ้าระวังการหักเงินมุ่งเน้นไปที่ความปลอดภัย” เพื่อระบุพรอมต์ที่เป็นอันตรายและขอให้แบบจำลองปฏิเสธข้อเสนอแนะ
ระบบนี้ได้รับการฝึกฝนแยกต่างหากเพื่อทำความเข้าใจและใช้นโยบายเนื้อหาของ OpenAI ซึ่งทำงานได้อย่างถูกต้องบนแพลตฟอร์มของโมเดล O3 และ O4-MINI ในการสร้างฐานข้อมูลดั้งเดิมทีมทีมสีแดงใช้เวลาประมาณ 1,000 ชั่วโมงในการแนบธงของการสนทนาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพ ในการทดสอบการทดสอบของระบบตรวจสอบแบบจำลองปฏิเสธที่จะตอบสนองต่ออัตราสูงถึง 98.7%
อย่างไรก็ตาม OpenAI ยอมรับว่าผลการทดสอบไม่รวมถึงกรณีที่ผู้ใช้ทดสอบโดยจงใจกับตัวแปรอื่นของ PRPT ดังนั้น บริษัท จะยังคงใช้แบบฟอร์มการกำกับดูแลด้วยตนเองเพื่อขอความช่วยเหลือ
ตาม OpenAI โมเดล O3 และ O4-MINI ยังไม่ถึงเกณฑ์ “ความเสี่ยงสูง” สำหรับความเสี่ยงทางชีวภาพ อย่างไรก็ตามเมื่อเทียบกับ GPT-4 หรือ O1 เวอร์ชันแรกของ O3 และ O4-MINI นั้นถือว่ามีประสิทธิภาพมากขึ้นในการตอบคำถามที่เกี่ยวข้องกับการพัฒนาอาวุธชีวภาพ-ซึ่งทำให้กลไกการตรวจสอบใหม่จำเป็น

Openai กล่าวว่าพวกเขากำลังติดตามอย่างใกล้ชิดว่าโมเดลใหม่สามารถสร้างเงื่อนไขสำหรับผู้ใช้ที่ไม่ดีในการพัฒนาภัยคุกคามทางชีวภาพหรือสารเคมีได้อย่างไรซึ่งเพิ่งได้รับการปรับปรุงเมื่อเร็ว ๆ นี้ในเอกสารการเตรียมความพร้อม
กลไกการตรวจสอบนี้ยังใช้กับรุ่นอื่น ๆ ตัวอย่างเช่นเพื่อป้องกันการสร้างภาพต้นฉบับของ GPT-4O ที่สร้างเนื้อหาที่เกี่ยวข้องกับการละเมิดของเด็ก (CSAM) OpenAI ได้ปรับใช้ระบบเฝ้าระวังที่คล้ายกันเพื่อตรวจจับและบล็อกพรอมต์ที่ละเมิด
อย่างไรก็ตามผู้เชี่ยวชาญบางคนแสดงความกังวลว่า OpenAI ไม่ได้ตั้งค่าความสำคัญสูงสุดเพื่อความปลอดภัย METR – หุ้นส่วนในโปรแกรมทีมสีแดง – กล่าวว่าพวกเขามีเวลาเพียงเล็กน้อยในการทดสอบ O3 ในชุดเกณฑ์สำหรับการหลอกลวง โดยเฉพาะอย่างยิ่ง OpenAI ยังตัดสินใจที่จะไม่เปิดเผยรายงานความปลอดภัยสำหรับ GPT-4.1 เวอร์ชันใหม่ที่วางจำหน่ายในสัปดาห์นี้
Openai กล่าวว่าพวกเขาเพิ่งปรับใช้ระบบการตรวจสอบใหม่เพื่อควบคุมเนื้อหาการอนุมาน AI ล่าสุด -O3 และ O4-mini สำหรับเนื้อหาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพและสารเคมี เป้าหมายคือการป้องกันแบบจำลองของการให้คำแนะนำที่สามารถใช้ประโยชน์จากคนเลวเพื่อทำการโจมตีที่เป็นอันตราย
ตามรายงานความปลอดภัยที่ตีพิมพ์ใหม่ O3 และ O4-MINI เป็นขั้นตอนที่สำคัญเมื่อเทียบกับเวอร์ชันก่อนหน้า แต่ยังมีศักยภาพที่จะถูกเอาเปรียบเพื่อสร้างข้อมูลที่ละเอียดอ่อนโดยเฉพาะในด้านอาวุธชีวภาพ Openai ได้พัฒนาระบบที่เรียกว่า “การเฝ้าระวังการหักเงินมุ่งเน้นไปที่ความปลอดภัย” เพื่อระบุพรอมต์ที่เป็นอันตรายและขอให้แบบจำลองปฏิเสธข้อเสนอแนะ
ระบบนี้ได้รับการฝึกฝนแยกต่างหากเพื่อทำความเข้าใจและใช้นโยบายเนื้อหาของ OpenAI ซึ่งทำงานได้อย่างถูกต้องบนแพลตฟอร์มของโมเดล O3 และ O4-MINI ในการสร้างฐานข้อมูลดั้งเดิมทีมทีมสีแดงใช้เวลาประมาณ 1,000 ชั่วโมงในการแนบธงของการสนทนาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพ ในการทดสอบการทดสอบของระบบตรวจสอบแบบจำลองปฏิเสธที่จะตอบสนองต่ออัตราสูงถึง 98.7%
อย่างไรก็ตาม OpenAI ยอมรับว่าผลการทดสอบไม่รวมถึงกรณีที่ผู้ใช้ทดสอบโดยจงใจกับตัวแปรอื่นของ PRPT ดังนั้น บริษัท จะยังคงใช้แบบฟอร์มการกำกับดูแลด้วยตนเองเพื่อขอความช่วยเหลือ
ตาม OpenAI โมเดล O3 และ O4-MINI ยังไม่ถึงเกณฑ์ “ความเสี่ยงสูง” สำหรับความเสี่ยงทางชีวภาพ อย่างไรก็ตามเมื่อเทียบกับ GPT-4 หรือ O1 เวอร์ชันแรกของ O3 และ O4-MINI นั้นถือว่ามีประสิทธิภาพมากขึ้นในการตอบคำถามที่เกี่ยวข้องกับการพัฒนาอาวุธชีวภาพ-ซึ่งทำให้กลไกการตรวจสอบใหม่จำเป็น

Openai กล่าวว่าพวกเขากำลังติดตามอย่างใกล้ชิดว่าโมเดลใหม่สามารถสร้างเงื่อนไขสำหรับผู้ใช้ที่ไม่ดีในการพัฒนาภัยคุกคามทางชีวภาพหรือสารเคมีได้อย่างไรซึ่งเพิ่งได้รับการปรับปรุงเมื่อเร็ว ๆ นี้ในเอกสารการเตรียมความพร้อม
กลไกการตรวจสอบนี้ยังใช้กับรุ่นอื่น ๆ ตัวอย่างเช่นเพื่อป้องกันการสร้างภาพต้นฉบับของ GPT-4O ที่สร้างเนื้อหาที่เกี่ยวข้องกับการละเมิดของเด็ก (CSAM) OpenAI ได้ปรับใช้ระบบเฝ้าระวังที่คล้ายกันเพื่อตรวจจับและบล็อกพรอมต์ที่ละเมิด
อย่างไรก็ตามผู้เชี่ยวชาญบางคนแสดงความกังวลว่า OpenAI ไม่ได้ตั้งค่าความสำคัญสูงสุดเพื่อความปลอดภัย METR – หุ้นส่วนในโปรแกรมทีมสีแดง – กล่าวว่าพวกเขามีเวลาเพียงเล็กน้อยในการทดสอบ O3 ในชุดเกณฑ์สำหรับการหลอกลวง โดยเฉพาะอย่างยิ่ง OpenAI ยังตัดสินใจที่จะไม่เปิดเผยรายงานความปลอดภัยสำหรับ GPT-4.1 เวอร์ชันใหม่ที่วางจำหน่ายในสัปดาห์นี้
Openai กล่าวว่าพวกเขาเพิ่งปรับใช้ระบบการตรวจสอบใหม่เพื่อควบคุมเนื้อหาการอนุมาน AI ล่าสุด -O3 และ O4-mini สำหรับเนื้อหาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพและสารเคมี เป้าหมายคือการป้องกันแบบจำลองของการให้คำแนะนำที่สามารถใช้ประโยชน์จากคนเลวเพื่อทำการโจมตีที่เป็นอันตราย
ตามรายงานความปลอดภัยที่ตีพิมพ์ใหม่ O3 และ O4-MINI เป็นขั้นตอนที่สำคัญเมื่อเทียบกับเวอร์ชันก่อนหน้า แต่ยังมีศักยภาพที่จะถูกเอาเปรียบเพื่อสร้างข้อมูลที่ละเอียดอ่อนโดยเฉพาะในด้านอาวุธชีวภาพ Openai ได้พัฒนาระบบที่เรียกว่า “การเฝ้าระวังการหักเงินมุ่งเน้นไปที่ความปลอดภัย” เพื่อระบุพรอมต์ที่เป็นอันตรายและขอให้แบบจำลองปฏิเสธข้อเสนอแนะ
ระบบนี้ได้รับการฝึกฝนแยกต่างหากเพื่อทำความเข้าใจและใช้นโยบายเนื้อหาของ OpenAI ซึ่งทำงานได้อย่างถูกต้องบนแพลตฟอร์มของโมเดล O3 และ O4-MINI ในการสร้างฐานข้อมูลดั้งเดิมทีมทีมสีแดงใช้เวลาประมาณ 1,000 ชั่วโมงในการแนบธงของการสนทนาที่เกี่ยวข้องกับความเสี่ยงทางชีวภาพ ในการทดสอบการทดสอบของระบบตรวจสอบแบบจำลองปฏิเสธที่จะตอบสนองต่ออัตราสูงถึง 98.7%
อย่างไรก็ตาม OpenAI ยอมรับว่าผลการทดสอบไม่รวมถึงกรณีที่ผู้ใช้ทดสอบโดยจงใจกับตัวแปรอื่นของ PRPT ดังนั้น บริษัท จะยังคงใช้แบบฟอร์มการกำกับดูแลด้วยตนเองเพื่อขอความช่วยเหลือ
ตาม OpenAI โมเดล O3 และ O4-MINI ยังไม่ถึงเกณฑ์ “ความเสี่ยงสูง” สำหรับความเสี่ยงทางชีวภาพ อย่างไรก็ตามเมื่อเทียบกับ GPT-4 หรือ O1 เวอร์ชันแรกของ O3 และ O4-MINI นั้นถือว่ามีประสิทธิภาพมากขึ้นในการตอบคำถามที่เกี่ยวข้องกับการพัฒนาอาวุธชีวภาพ-ซึ่งทำให้กลไกการตรวจสอบใหม่จำเป็น

Openai กล่าวว่าพวกเขากำลังติดตามอย่างใกล้ชิดว่าโมเดลใหม่สามารถสร้างเงื่อนไขสำหรับผู้ใช้ที่ไม่ดีในการพัฒนาภัยคุกคามทางชีวภาพหรือสารเคมีได้อย่างไรซึ่งเพิ่งได้รับการปรับปรุงเมื่อเร็ว ๆ นี้ในเอกสารการเตรียมความพร้อม
กลไกการตรวจสอบนี้ยังใช้กับรุ่นอื่น ๆ ตัวอย่างเช่นเพื่อป้องกันการสร้างภาพต้นฉบับของ GPT-4O ที่สร้างเนื้อหาที่เกี่ยวข้องกับการละเมิดของเด็ก (CSAM) OpenAI ได้ปรับใช้ระบบเฝ้าระวังที่คล้ายกันเพื่อตรวจจับและบล็อกพรอมต์ที่ละเมิด
อย่างไรก็ตามผู้เชี่ยวชาญบางคนแสดงความกังวลว่า OpenAI ไม่ได้ตั้งค่าความสำคัญสูงสุดเพื่อความปลอดภัย METR – หุ้นส่วนในโปรแกรมทีมสีแดง – กล่าวว่าพวกเขามีเวลาเพียงเล็กน้อยในการทดสอบ O3 ในชุดเกณฑ์สำหรับการหลอกลวง โดยเฉพาะอย่างยิ่ง OpenAI ยังตัดสินใจที่จะไม่เปิดเผยรายงานความปลอดภัยสำหรับ GPT-4.1 เวอร์ชันใหม่ที่วางจำหน่ายในสัปดาห์นี้
Discover more from 24 Gadget - Review Mobile Products
Subscribe to get the latest posts sent to your email.

