sabato, Novembre 23, 2024

Dibattito, Politica | Minacce nello spazio digitale: intelligenza artificiale o solo i soliti sospetti?

Must read

Bertina Buccio
Bertina Buccio
"Lettore. Appassionato di viaggi esasperatamente umile. Studioso di cibo estremo. Scrittore. Comunicatore. "

Opinioni Questo è un post di discussione. La pubblicazione esprime le opinioni di chi scrive.

da allora Il chatbot di OpenAI è entrato sotto i riflettori dei media nel novembre 2022 e abbiamo ricevuto una serie di affermazioni secondo cui avevamo raggiunto un “punto critico” nello sviluppo dell’IA.

E piace È certo che quando la primavera seguirà l’inverno, le affermazioni apocalittiche su speciali (e drammatiche) minacce alla sicurezza arriveranno dall’intelligenza artificiale.

Cos’è l’intelligenza artificiale?

Ottimo norvegese Leksikon definisce il KI come segue: «L’intelligenza artificiale è una tecnologia informatica che controlla la propria attività e quindi appare intelligente“.

Uno importante Le parole chiave qui sono “Sembra intelligente». Questo è il livello a cui siamo ancora quando si parla di ricerca e sviluppo nel campo dell’Intelligenza Artificiale. Per quanto riguarda l’intelligenza artificiale, in una forma in grado di sviluppare nuove minacce digitali specifiche, possiamo descriverla nel modo seguente semplice:

Macchine dotate di intelligenza che consente loro di comprendere, apprendere ed eseguire compiti intellettuali proprio come gli esseri umani. Le macchine imitano il pensiero e il comportamento umano per risolvere tutti i tipi di problemi complessi.

Questo è tutto Quello che chiamiamo in informatica”Intelligenza Generale Artificiale (AGI)». Un sistema così intelligente non è stato ancora inventato e non siamo vicini a inventarlo. Per ora si tratta di un’idea puramente teorica e poiché tale intelligenza non esiste, non può nemmeno formare o sviluppare minacce digitali distinte e ancora sconosciute.

Sblocca l’intelligenza artificiale Il chatbot di oggi è un eccellente esempio di qualcosa che non è l’intelligenza artificiale che è stato contemporaneamente utilizzato come esempio di “minaccia dell’intelligenza artificiale”.

Ma ChatGPTMicrosoft CoPilot e chatbot simili non sono esempi di intelligenza artificiale (AI). Si tratta di strumenti che si basano su calcoli statistici. È come i grandi giochi per computer avanzati, in cui tu come giocatore hai la sensazione che non ci siano restrizioni su dove puoi andare o cosa puoi fare.

Ma amico Non devi esplorare troppo questo mondo di gioco avanzato finché non vedi che in realtà puoi solo andare e fare ciò che hanno deciso gli sviluppatori del gioco. Questo è anche il caso di ChatGPT e strumenti simili. Eseguono calcoli statistici sorprendentemente veloci delle informazioni disponibili e della probabile configurazione delle lettere, ma tutto ciò che fanno i sistemi è predeterminato dal codice del programma.

READ  Emile e Sandra (H) rispondono a Filip (AP)

Possono Non pensano, né fanno alcuna analisi, a ciò che l’utente chiede o alle “risposte” restituite dal codice del programma. Non sono affatto “intelligenti”.

Le cosiddette minacce dell’intelligenza artificiale

A gennaio Nel 2023, è stato riferito che i criminali hanno già adottato ChatGPT e, come docente di sicurezza informatica, sono naturalmente molto preoccupato per le implicazioni sulla sicurezza dei “nuovi” strumenti di tipo ChatGPT, non ultimi i sistemi video come Sora.

E questo Questi due strumenti sono spesso evidenziati come esempi di qualcosa che può essere creato”.Minacce dell’intelligenza artificiale“, senza che sia effettivamente chiaro a quali specifiche “nuove” minacce si applichi.

Noi siamo Ora disponiamo di diversi tipi di strumenti in grado di “produrre” il codice sorgente (Cioè, il recupero tramite calcoli statistici che ha già prodotto un codice sorgente disponibile al pubblico), ovviamente darà a “Script kiddies” un altro strumento. Ma poiché ChatGPT e chatbot simili non sono esenti da errori quando si tratta di generazione del codice, attualmente c’è una grande domanda sull’efficacia di questi strumenti.

Strumento di creazione video di Il tipo di Sora avrà probabilmente un impatto maggiore nell’area problematica dei Deepfake, ma è ancora troppo presto per dire con certezza se questi strumenti saranno più efficaci come strumenti Deepfake rispetto ai sistemi esistenti. Non è che prima non avessimo questo tipo di strumento. La novità è che “la maggior parte delle persone” ha accesso a strumenti più potenti.

Ma questo Il fatto che ora tutti abbiamo accesso a strumenti come ChatGPT e Sora può aumentare il rischio di abusi e la diffusione di informazioni false, poiché questi strumenti consentono quasi a chiunque di manipolare testo e video in modo avanzato.

Inoltre, può Ciò probabilmente aumenterà la complessità e la diversità degli attacchi informatici, poiché un numero maggiore di aggressori può utilizzare tali strumenti per recuperare e assemblare malware.

E qui Siamo al centro delle sfide legate a ChatGPT e sistemi simili, nonché ai “nuovi” sistemi di creazione video.

Non c’è niente di nuovo sotto il sole

“Nuovo” Strumenti, in particolare vari chatbot, Non porta a nessun tipo di nuova minaccia. Piuttosto, quello che vediamo è che:

  1. I chatbot forniranno principalmente agli autori delle minacce un rapido accesso alle informazioni disponibili al pubblico pubblicate online e potrebbero portare, ad esempio, a una maggiore capacità di manipolazione sociale. Tali strumenti possono essere utilizzati per consentire una comunicazione più convincente tra aggressore e vittima, compresa la creazione di documenti falsi, senza gli errori di traduzione, ortografia e grammaticali che in precedenza hanno spesso rivelato questo tipo di attacco.
  2. Diversi chatbot possono essere utilizzati anche nel lavoro di intelligence come parte dei primi preparativi per attacchi contro organizzazioni o individui. Ma tenendo conto dei problemi fondamentali con LLM, soprattutto nella forma in cui lo incontriamo, ad es. ChatGPT, non è del tutto certo se il personale dell’intelligence e i criminali informatici professionisti (avanzati) siano particolarmente propensi a utilizzare i chatbot.
  3. I chatbot possono facilitare lo sviluppo di diversi tipi di malware. Ma l’autore della minaccia deve comunque possedere le competenze tecniche per valutare il prodotto e utilizzarlo in modo efficace come parte di un attacco digitale.
  4. Anche la competenza sarà essenziale nello sviluppo di armi biologiche, sebbene i chatbot saranno in grado di facilitare la raccolta di informazioni disponibili al pubblico su questo argomento.
  5. Nuovi e avanzati sistemi di generazione video a disposizione di tutti possono aumentare la quantità di fake news in cui viene utilizzato il video.
  6. L’altra cosa è che i cosiddetti “sistemi di intelligenza artificiale” sono vulnerabili agli attacchi. Ma gli attacchi digitali contro ad es. Le auto a guida autonoma o le auto normali con un sistema connesso a Internet non si distinguono da altri tipi di attacchi digitali, anche se le implicazioni per le auto a guida autonoma potrebbero essere molto gravi. Le cosiddette “armi autonome”, che, come tutti i diversi tipi di “sistemi di intelligenza artificiale”, non sono intelligenti e non possono “pensare” al di fuori del loro sistema software, possono ovviamente essere hackerate.
READ  Dibattito Corona | Non c'è ancora spazio per il rilascio a Fredrikstad

Ma questo Solo perché l’intelligence nemica, le organizzazioni criminali e “la maggior parte delle persone” hanno a disposizione potenti strumenti IT non significa che ci troviamo improvvisamente di fronte a minacce digitali che la scienza non ha ancora identificato o segnalato.

È aumentato Disponibilità di tali strumenti (Democratizzare gli strumenti di attacco) D’altro canto, può suscitare ansia, nel senso che più persone (forse) saranno in grado di sferrare attacchi digitali, il che sottolinea la necessità di rafforzare costantemente la sicurezza informatica a tutti i livelli, sia attraverso soluzioni tecniche sia, non ultimo, attraverso aumentare la competenza e la consapevolezza digitale tra noi come cittadini in una società dei media completamente digitale.

Se I singoli utenti di vari media digitali – dai telefoni cellulari intelligenti alle auto elettriche – possono liberarsi dall’ingenua convinzione che gli attacchi digitali siano solo qualcosa che accade ad altri o che le notizie false non compaiano mai in alcuni dei loro flussi di dati, nemmeno in potenti strumenti matematici. modelli (Lingua) o potenti strumenti di creazione video aiutano i criminali o le agenzie governative ad aumentare il loro successo.

Quando quello Nel caso di altri tipi di minacce, come lo sviluppo di armi virali o batteriologiche, i chatbot ChatGPT non si sviluppano. I chatbot non possono sviluppare nulla. Ma possono effettuare ricerche rapide tra le informazioni disponibili al pubblico già pubblicate online e presentarle all’utente in modo di facile comprensione.

In quelli Nei casi in cui le informazioni sono già corrette e l’utente ha le conoscenze per utilizzarle, ciò facilita naturalmente il lavoro iniziale. Ma la minaccia tangibile è il terrorista e le sue conoscenze pratiche e teoriche, non il chatbot.

READ  Come l'intelligenza artificiale risolve alcuni dei problemi più difficili di Internet

“folla abituale”

Minacce dentro Pertanto lo spazio digitale, pur avendo accesso a modelli linguistici più o meno grandi o ad altri sistemi IT intelligenti, continua a prendere di mira noi come utenti dei media digitali. I buoni vecchi metodi sono ancora utilizzati. La manipolazione sociale sta diventando sempre più comune e l’uso individuale dei social media è il punto di partenza per le classiche operazioni di influenza e anche per i classici attacchi digitali sotto forma di “clicca su questo collegamento”.

aspetto Gli strumenti avanzati a disposizione di tutti possono aumentare il volume degli attacchi e la quantità di video falsi e non dovrebbero certamente essere ignorati. Ma le forme di attacco non sono di per sé nuove.

Gli attori della minaccia lo sono Si tengono sempre lontani dalle “solite bande” di agenti dei servizi segreti di nazioni nemiche, da reti criminali più grandi e da singoli criminali più o meno abili.

Questi attori Nel suo lavoro utilizza numerosi media e strumenti digitali, ma gli attacchi contro di noi dipendono da questo L’intelligenza degli attori E conoscenza Sia sulla tecnologia che sulla psicologia. Essi NO Costruito su un’intelligenza digitale misteriosa e inesistente.

E questo È pur sempre un cittadino individuale Consapevolezza privata E uno Conoscenza tecnologica minima È la chiave per prevenire questo tipo di attacco. Il clamore mediatico associato all’illusione che ora abbiamo sviluppato “intelligenza artificiale” non cambia questo semplice fatto.

More articles

Latest article