Angajații Microsoft au blocat temporar utilizarea ChatGPT

Ce trebuie sa stii

  • Potrivit unui nou raport de către CNBC, angajații Microsoft au fost temporar restricționați să acceseze ChatGPT.
  • Microsoft a declarat că a restricționat accesul din cauza problemelor de securitate și confidențialitate.
  • Un purtător de cuvânt al Microsoft menționează că blocarea a fost o greșeală și că a avut loc în timp ce compania testa sistemele de control ale punctelor terminale pentru LLM.
  • Microsoft recomandă utilizarea Bing Chat Enterprise și ChatGPT Enterprise, care oferă o securitate și confidențialitate mai bune.

Pe Raportul Microsoft privind indicele de lucru, 70% dintre angajații care au participat la sondaj au menționat că sunt pregătiți să adopte tehnologia și să o încorporeze în fluxul lor de lucru pentru a face față sarcinilor banale.

Este evident că angajații Microsoft folosesc inteligența artificială pentru a gestiona unele sarcini din cadrul organizației, mai ales după extinderea parteneriatului cu OpenAI prin făcând o investiție de mai multe miliarde de dolari

. Cu toate acestea, un raport emergent al CNBC menționează că angajații Microsoft au fost restricționați pentru scurt timp de acces ChatGPT joia.

Potrivit persoanelor familiarizate cu problema, Microsoft a decis să restricționeze pentru scurt timp accesul la Instrument alimentat de AI din cauza „preocupărilor de securitate și date”. Microsoft a emis următoarea declarație referitoare la Problema:

„Deși este adevărat că Microsoft a investit în OpenAI și că ChatGPT are măsuri de protecție încorporate pentru a preveni utilizarea necorespunzătoare, site-ul web este totuși un serviciu extern al unei terțe părți. Aceasta înseamnă că trebuie să fiți precaut când îl utilizați din cauza riscurilor de confidențialitate și securitate. Acest lucru este valabil și pentru orice alte servicii AI externe, cum ar fi Midjourney sau Replika.”

În timp ce vorbea cu CNBC, Microsoft a indicat că accesul restricționat ChatGPT a fost o greșeală, care a avut loc în timp ce compania a efectuat o serie de teste pe modele de limbă mari.

Testam sistemele de control ale punctelor finale pentru LLM-uri și le-am activat din neatenție pentru toți angajații. Am restabilit serviciul la scurt timp după ce am identificat eroarea noastră. După cum am spus anterior, încurajăm angajații și clienții să folosească servicii precum Bing Chat Enterprise și ChatGPT Enterprise, care oferă niveluri mai mari de protecție a confidențialității și a securității.

Microsoft

Este evident că există multă îngrijorare în jurul siguranței și confidențialității tehnologiei. Președintele Biden a emis un ordin executiv abordând majoritatea acestor preocupări, dar există încă o nevoie urgentă de balustrade și măsuri elaborate care vor ajuta la prevenirea IA generativă din spirala scăpată de sub control.

Această știre vine după OpenAI a confirmat o întrerupere a ChatGPT cauzată de un atac DDoS. Întreruperea a împiedicat utilizatorii să folosească pe deplin capacitățile chatbot-ului, furnizându-le în schimb mesaje de eroare.

Microsoft este în vârful situației de securitate AI

Setări de confidențialitate ChatGPT
(Credit imagine: viitor)

În iunie, o firmă de securitate cibernetică a emis un raport care citează acest lucru peste 100.000 de acreditări ChatGPT au fost tranzacționate pe piețele dark web în ultimele 12 luni. Firma de securitate a mai indicat că atacatorii au folosit malware de furt de informații pentru a avea acces aceste acreditări și a recomandat utilizatorilor să ia în considerare schimbarea parolelor în mod regulat pentru a-i păstra pe hackeri dafin.

Un alt raport a menționat că hackerii se încălzeau și foloseau tehnici sofisticate, inclusiv AI generativă, pentru a desfășura atacuri rău intenționate asupra utilizatorilor nebănuiți. Ținând cont de acest lucru, nu este complet greșit ca Microsoft să restricționeze utilizarea instrumentelor bazate pe inteligență artificială, în special din cauza problemelor de securitate și confidențialitate.

Ce părere aveți despre siguranța și confidențialitatea AI? Spune-ne în comentarii.