Le scuole potrebbero utilizzare l'intelligenza artificiale per tenere sotto controllo gli studenti: ecco perché

  • Un nuovo rapporto rileva che molte università utilizzano l’intelligenza artificiale per monitorare gli studenti e i loro account sui social media.
  • Le scuole affermano che gli studenti devono essere monitorati utilizzando l’intelligenza artificiale per la sicurezza.
  • Ma alcuni osservatori sostengono che la sorveglianza lede le libertà civili e colpisce in modo sproporzionato le minoranze.
Uno studente universitario utilizza un computer portatile durante le lezioni.

Tom Werner/Getty Images

Le scuole stanno andando sempre più oltre le telecamere di sorveglianza per tenere d’occhio i propri studenti.

Un nuovo rapporto del Dallas Morning News ha rivelato che l’uso dell’intelligenza artificiale (AI) per monitorare gli studenti è diffuso nelle scuole a livello nazionale. Molti campus affermano che il monitoraggio informatico è necessario per proteggere e salvare la vita degli studenti che rischiano di danneggiare se stessi o gli altri. Ma alcuni osservatori gridano allo scandalo.

"Quando gli studenti sanno di essere monitorati con l'intelligenza artificiale, sono meno propensi a condividere pensieri veri online e sono più attenti a ciò che cercano,"

Nir Kshetri, professore presso l' Università della Carolina del Nord a Greensboro, che studia le comunità digitali, ha detto a Lifewire via e-mail. “Ciò può scoraggiare i gruppi vulnerabili, come gli studenti con problemi di salute mentale, dall’ottenere i servizi necessari. Quando gli studenti sanno che ogni loro movimento e tutto ciò che viene letto e scritto viene osservato, è anche meno probabile che diventino adulti con un alto livello di fiducia in se stessi”.

Guardare gli studenti

La notizia afferma che la società Social Sentinel ha offerto alle scuole la tecnologia per scansionare i post sui social media degli studenti. Almeno 37 università hanno utilizzato Social Sentinel dal 2015. Social Sentinel ha affermato che il suo servizio non può essere utilizzato per monitorare le proteste, ma il rapporto ha scoperto che è stato utilizzato per quello scopo.

"Durante un evento, gli avvisi di minaccia possono fornire informazioni importanti sui leader o sugli agitatori che potrebbero volere uno scontro con la legge applicazione, il clima generale della folla e il potenziale di crescita della folla," ha scritto Social Sentinel in una e-mail secondo il rapporto. Navigate360, la società che ha acquisito Social Sentinel nel 2020, ha chiamato l'indagine impreciso e obsoleto.

Questi strumenti incidono anche in modo più negativo sulle minoranze sessuali e di genere.

Alcuni esperti del settore affermano che il crescente utilizzo dell’intelligenza artificiale per la sorveglianza è inevitabile. "Il paradosso dei social media è che man mano che cresce la nostra impronta digitale, cresce anche il nostro utilizzo dei social media," Chris Piche, il fondatore di Smarter AI, una società che collega la CCTV con le telecamere AI definite dal software, ha dichiarato a Lifewire in un'intervista via e-mail. "È qui che le norme governative svolgono un ruolo chiave. Ad esempio, i governi europeo e americano hanno introdotto il diritto all’oblio ai sensi del GDPR, del CCPA e di altre normative statali statunitensi”.

Minoranze al microscopio dell’intelligenza artificiale

Kshetri ha affermato che l’uso dell’intelligenza artificiale per monitorare gli studenti potrebbe avere un impatto sproporzionato sulle minoranze. Le probabilità che gli studenti neri vengano sospesi sono più di tre volte superiori a quelle dei loro coetanei bianchi, ha detto.

"Dopo aver valutato i contenuti segnalati, i venditori segnalano eventuali preoccupazioni ai funzionari scolastici, che adottano azioni disciplinari caso per caso", ha aggiunto. "La mancanza di controllo sull'uso di questi strumenti da parte delle scuole potrebbe portare a ulteriori danni per gli studenti delle minoranze".

I principali modelli di intelligenza artificiale hanno il 50% in più di probabilità di contrassegnare i tweet scritti da afroamericani come “offensivi” rispetto a quelli scritti da altri, ha affermato Kshetri. Hanno 2,2 volte più probabilità di segnalare i tweet scritti in slang afroamericano.

"Questi strumenti influiscono negativamente anche sulle minoranze sessuali e di genere", ha aggiunto. La società Gaggle avrebbe "segnalato" i termini 'gay', 'lesbica' e altri termini legati alla comunità LGBTQ perché sono associati alla pornografia, anche se i termini sono spesso usati per descrivere la propria identità."

I fornitori di sistemi di sorveglianza utilizzano sistemi non sicuri che gli hacker possono sfruttare, ha affermato Kshetri. Nel marzo 2021, la società di software di sicurezza informatica McAfee ha scoperto diverse vulnerabilità nel sistema di monitoraggio degli studenti il software Vision Pro Education del fornitore Netop. Ad esempio, Netop non ha crittografato le comunicazioni tra insegnanti e studenti per bloccare l'accesso non autorizzato.

"Il software è stato utilizzato da oltre 9.000 scuole in tutto il mondo per monitorare milioni di studenti", Kshetri aggiunto." La vulnerabilità ha consentito agli hacker di ottenere il controllo su webcam e microfoni nelle stanze degli studenti computer."

Molte aziende offrono alle scuole modalità per monitorare gli studenti tramite Internet. Le piattaforme di social media dispongono di software di monitoraggio proprietario, ad esempio, per rilevare e bloccare bot e spam, ha osservato Piche. College, aziende e governi utilizzano software di monitoraggio dei social media (o SMMS in breve) di fornitori, tra cui Hootsuite, Sprout Social e Zoho Social.

"Proprio come una piazza cittadina, i social media sono un forum pubblico, non privato", ha aggiunto. "Ogni volta che utilizziamo i social media, lasciamo impronte digitali che vengono condivise e vendute dai social media piattaforme a terzi, ad esempio da Twitter a Elon Musk e Facebook a Cambridge Analytica."