พนักงาน Microsoft ถูกบล็อกชั่วคราวจากการใช้ ChatGPT
สิ่งที่คุณต้องรู้
- ตามก รายงานใหม่ โดย CNBC พนักงานของ Microsoft ถูกจำกัดไม่ให้เข้าถึง ChatGPT ชั่วคราว
- Microsoft ระบุว่าได้จำกัดการเข้าถึงเนื่องจากปัญหาด้านความปลอดภัยและความเป็นส่วนตัว
- โฆษกของ Microsoft อ้างว่าการบล็อกนี้เป็นข้อผิดพลาด และเกิดขึ้นในขณะที่บริษัทกำลังทดสอบระบบควบคุมปลายทางสำหรับ LLM
- Microsoft แนะนำให้ใช้ Bing Chat Enterprise และ ChatGPT Enterprise ซึ่งมีความปลอดภัยและความเป็นส่วนตัวที่ดีกว่า
ต่อ รายงานดัชนีการทำงานของ Microsoft, 70% ของพนักงานที่เข้าร่วมการสำรวจระบุว่าพวกเขาพร้อมที่จะนำเทคโนโลยีมาใช้และรวมเข้ากับขั้นตอนการทำงานเพื่อจัดการกับงานธรรมดาๆ
เห็นได้ชัดว่าพนักงานของ Microsoft ใช้ AI เพื่อจัดการงานบางอย่างภายในองค์กร โดยเฉพาะหลังจากขยายความร่วมมือกับ OpenAI โดย ทำให้มีการลงทุนหลายพันล้านดอลลาร์. อย่างไรก็ตาม รายงานใหม่จาก CNBC อ้างว่าพนักงานของ Microsoft ถูกจำกัดไม่ให้เข้าถึงในช่วงสั้นๆ ChatGPT ในวันพฤหัสบดีที่.
ตามที่ผู้ที่คุ้นเคยกับปัญหานี้ Microsoft ตัดสินใจจำกัดการเข้าถึงไฟล์ดังกล่าวชั่วคราว เครื่องมือที่ขับเคลื่อนด้วย AI เนื่องจาก "ข้อกังวลด้านความปลอดภัยและข้อมูล" Microsoft ได้ออกแถลงการณ์ต่อไปนี้เกี่ยวกับ ปัญหา:
"แม้ว่า Microsoft จะลงทุนใน OpenAI และ ChatGPT มีระบบป้องกันในตัวเพื่อป้องกันการใช้งานที่ไม่เหมาะสม แต่เว็บไซต์ก็ยังเป็นบริการภายนอกของบุคคลที่สาม นั่นหมายความว่าคุณต้องใช้ความระมัดระวังเนื่องจากมีความเสี่ยงด้านความเป็นส่วนตัวและความปลอดภัย รวมถึงบริการ AI ภายนอกอื่นๆ เช่น Midjourney หรือ Replika ด้วยเช่นกัน"
ขณะที่กำลังพูดคุยด้วย ซีเอ็นบีซีMicrosoft ระบุว่าการเข้าถึง ChatGPT แบบจำกัดนั้นเป็นความผิดพลาด ซึ่งเกิดขึ้นในขณะที่บริษัททำการทดสอบมากมายกับโมเดลภาษาขนาดใหญ่
เห็นได้ชัดว่ามีความกังวลมากมายเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของเทคโนโลยี ประธานาธิบดีไบเดนออกคำสั่งฝ่ายบริหาร จัดการกับข้อกังวลเหล่านี้ส่วนใหญ่ แต่ยังคงมีความจำเป็นเร่งด่วนสำหรับราวกั้นและมาตรการที่ซับซ้อนที่จะช่วยป้องกัน AI กำเนิด จากการลุกลามจนควบคุมไม่ได้
ข่าวนี้มาทีหลัง. OpenAI ยืนยันการหยุดทำงานของ ChatGPT ที่เกิดจากการโจมตี DDoS. การหยุดทำงานดังกล่าวทำให้ผู้ใช้ไม่สามารถใช้ประโยชน์จากความสามารถของแชทบอทได้อย่างเต็มที่ โดยแสดงข้อความแสดงข้อผิดพลาดแทน
Microsoft อยู่เหนือสถานการณ์ด้านความปลอดภัยของ AI
ในเดือนมิถุนายน บริษัทรักษาความปลอดภัยทางไซเบอร์แห่งหนึ่งได้ออกรายงานโดยอ้างว่า ข้อมูลรับรอง ChatGPT มากกว่า 100,000 รายการถูกแลกเปลี่ยนในตลาดมืดเว็บ ในช่วง 12 เดือนที่ผ่านมา บริษัทรักษาความปลอดภัยระบุเพิ่มเติมว่าผู้โจมตีใช้ประโยชน์จากมัลแวร์ที่ขโมยข้อมูลเพื่อเข้าถึง ข้อมูลประจำตัวเหล่านี้และแนะนำให้ผู้ใช้พิจารณาเปลี่ยนรหัสผ่านเป็นประจำเพื่อป้องกันแฮกเกอร์ อ่าว.
รายงานอีกฉบับหนึ่ง อ้างว่าแฮกเกอร์กำลังอุ่นเครื่องและใช้เทคนิคที่ซับซ้อน รวมถึง generative AI เพื่อปรับใช้การโจมตีที่เป็นอันตรายกับผู้ใช้ที่ไม่สงสัย โปรดทราบว่าไม่ใช่เรื่องผิดเลยที่ Microsoft จะจำกัดการใช้เครื่องมือที่ขับเคลื่อนด้วย AI โดยเฉพาะอย่างยิ่งในเรื่องข้อกังวลด้านความปลอดภัยและความเป็นส่วนตัว
คุณคิดอย่างไรเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของ AI แจ้งให้เราทราบในความคิดเห็น.