Ai dipendenti Microsoft è stato temporaneamente impedito l'utilizzo di ChatGPT

Cosa hai bisogno di sapere

  • Secondo a nuovo rapporto dalla CNBC, ai dipendenti Microsoft è stato temporaneamente vietato l'accesso a ChatGPT.
  • Microsoft ha dichiarato di aver limitato l'accesso per motivi di sicurezza e privacy.
  • Un portavoce di Microsoft afferma che il blocco è stato un errore e che è avvenuto mentre l'azienda stava testando i sistemi di controllo degli endpoint per LLM.
  • Microsoft consiglia di utilizzare Bing Chat Enterprise e ChatGPT Enterprise, che offrono una migliore sicurezza e privacy.

Per Rapporto sull'indice di lavoro di Microsoft, il 70% dei dipendenti che hanno partecipato al sondaggio ha affermato di essere pronto ad adottare la tecnologia e a incorporarla nel proprio flusso di lavoro per gestire attività banali.

È ovvio che i dipendenti Microsoft utilizzino l'intelligenza artificiale per gestire alcune attività all'interno dell'organizzazione, soprattutto dopo aver esteso la partnership con OpenAI fare un investimento multimiliardario. Tuttavia, un rapporto emergente della CNBC

afferma che ai dipendenti Microsoft è stato brevemente vietato l'accesso ChatGPT di giovedì.

Secondo persone a conoscenza della questione, Microsoft ha deciso di limitare brevemente l'accesso al file Strumento basato sull'intelligenza artificiale a causa di "problemi di sicurezza e dati". Microsoft ha rilasciato la seguente dichiarazione relativa a il problema:

"Anche se è vero che Microsoft ha investito in OpenAI e che ChatGPT ha misure di sicurezza integrate per prevenire usi impropri, il sito web è comunque un servizio esterno di terze parti. Ciò significa che devi prestare attenzione nell'usarlo a causa dei rischi per la privacy e la sicurezza. Questo vale anche per qualsiasi altro servizio AI esterno, come Midjourney o Replika."

Mentre parlo con CNBC, Microsoft ha indicato che l'accesso limitato a ChatGPT è stato un errore, avvenuto mentre la società eseguiva una serie di test su modelli linguistici di grandi dimensioni.

Stavamo testando i sistemi di controllo degli endpoint per i LLM e inavvertitamente li abbiamo attivati ​​per tutti i dipendenti. Abbiamo ripristinato il servizio poco dopo aver identificato il nostro errore. Come abbiamo detto in precedenza, incoraggiamo dipendenti e clienti a utilizzare servizi come Bing Chat Enterprise e ChatGPT Enterprise dotati di maggiori livelli di protezione della privacy e della sicurezza.

Microsoft

È evidente che c'è molta preoccupazione che ruota attorno alla sicurezza e alla privacy della tecnologia. Il presidente Biden ha emesso un ordine esecutivo affrontando la maggior parte di queste preoccupazioni, ma c’è ancora un urgente bisogno di guardrail e di misure elaborate che aiutino a prevenirle IA generativa dalla spirale fuori controllo.

Questa notizia viene dopo OpenAI ha confermato un'interruzione di ChatGPT causata da un attacco DDoS. L'interruzione ha impedito agli utenti di sfruttare appieno le capacità del chatbot, fornendo loro invece messaggi di errore.

Microsoft è al passo con la situazione della sicurezza dell’intelligenza artificiale

Impostazioni sulla privacy di ChatGPT
(Credito immagine: futuro)

A giugno, una società di sicurezza informatica ha pubblicato un rapporto in cui si citava questo fatto oltre 100.000 credenziali ChatGPT sono state scambiate nei mercati del dark web negli ultimi 12 mesi. La società di sicurezza ha inoltre indicato che gli aggressori hanno sfruttato malware che rubano informazioni per ottenere l’accesso queste credenziali e consiglia agli utenti di modificare regolarmente le proprie password per tenere lontani gli hacker baia.

Un altro rapporto ha affermato che gli hacker si stanno preparando e utilizzano tecniche sofisticate, inclusa l’intelligenza artificiale generativa, per lanciare attacchi dannosi contro utenti ignari. Tenendo presente questo, non è del tutto sbagliato che Microsoft limiti l’uso di strumenti basati sull’intelligenza artificiale, soprattutto per motivi di sicurezza e privacy.

Cosa pensi della sicurezza e della privacy dell’IA? Fateci sapere nei commenti.