Microsoft-ansatte midlertidig blokkert fra å bruke ChatGPT
Hva du trenger å vite
- I følge a ny rapport av CNBC ble Microsoft-ansatte midlertidig begrenset fra å få tilgang til ChatGPT.
- Microsoft uttalte at de begrenset tilgangen på grunn av sikkerhets- og personvernhensyn.
- En talsmann for Microsoft siterer at blokkeringen var en feil og at den skjedde mens selskapet testet endepunktkontrollsystemer for LLM-er.
- Microsoft anbefaler å bruke Bing Chat Enterprise og ChatGPT Enterprise, som har bedre sikkerhet og personvern.
Per Microsofts arbeidsindeksrapport, 70 % av de ansatte som deltok i undersøkelsen siterte at de var klare til å ta i bruk teknologien og inkorporere den i arbeidsflyten for å håndtere hverdagslige oppgaver.
Det er åpenbart at Microsoft-ansatte bruker AI til å håndtere enkelte oppgaver i organisasjonen, spesielt etter å ha utvidet partnerskapet med OpenAI med gjør en investering på flere milliarder dollar. Imidlertid, en ny rapport fra CNBC siterer at Microsoft-ansatte ble kortvarig begrenset fra tilgang ChatGPT på torsdag.
I følge folk som er kjent med problemet, bestemte Microsoft seg for å begrense tilgangen til AI-drevet verktøy på grunn av "sikkerhets- og dataproblemer." Microsoft utstedte følgende erklæring angående problemet:
«Selv om det er sant at Microsoft har investert i OpenAI, og at ChatGPT har innebygde sikkerhetstiltak for å forhindre feil bruk, er nettstedet likevel en ekstern tredjepartstjeneste. Det betyr at du må utvise forsiktighet ved å bruke den på grunn av risikoer for personvern og sikkerhet. Dette gjelder alle andre eksterne AI-tjenester, som Midjourney eller Replika, også."
Mens du snakker med CNBC, indikerte Microsoft at den begrensede ChatGPT-tilgangen var en feil, som skjedde mens selskapet kjørte en rekke tester på store språkmodeller.
Vi testet endepunktkontrollsystemer for LLM-er og skrudde dem utilsiktet på for alle ansatte. Vi gjenopprettet tjenesten kort tid etter at vi identifiserte feilen vår. Som vi har sagt tidligere, oppfordrer vi ansatte og kunder til å bruke tjenester som Bing Chat Enterprise og ChatGPT Enterprise som kommer med høyere nivåer av personvern og sikkerhetsbeskyttelse.
Microsoft
Det er tydelig at det er mye bekymring rundt teknologiens sikkerhet og personvern. President Biden utstedte en eksekutiv ordre adresserer de fleste av disse bekymringene, men det er fortsatt et presserende behov for rekkverk og forseggjorte tiltak som vil bidra til å forhindre generativ AI fra å komme ut av kontroll.
Denne nyheten kommer etterpå OpenAI bekreftet et ChatGPT-brudd forårsaket av et DDoS-angrep. Strømbruddet forhindret brukere i å utnytte chatbotens muligheter fullt ut, og gi dem feilmeldinger i stedet.
Microsoft er på toppen av AI-sikkerhetssituasjonen

I juni ga et cybersikkerhetsfirma ut en rapport som siterer dette over 100 000 ChatGPT-legitimasjon hadde blitt byttet bort på mørke nettmarkedsplasser i løpet av de siste 12 månedene. Sikkerhetsfirmaet indikerte videre at angriperne utnyttet skadelig programvare som stjeler informasjon for å få tilgang til disse legitimasjonene og anbefalte at brukere vurderer å endre passordene sine regelmessig for å holde hackere unna bukt.
Nok en rapport sitert at hackere varmet opp og brukte sofistikerte teknikker, inkludert generativ AI, for å distribuere ondsinnede angrep på intetanende brukere. Med dette i bakhodet er det ikke helt galt av Microsoft å begrense bruken av AI-drevne verktøy, spesielt på grunn av sikkerhets- og personvernhensyn.
Hva er dine tanker om AI-sikkerhet og personvern? Gi oss beskjed i kommentarene.