Il mondo di internet allo scanner

Lorenzo Salvadori Amadei, esperto qualificato in Informatica, fornisce (in primo luogo per il sito 21e33) una preziosa testimonianza sulle condizioni attuali del mondo di Internet, che per molti aspetti rimane bifronte: da una parte infatti la rete web è naturalmente un fantastico, oltre che futuribile, strumento di libertà e conoscenza, che non a caso diversi poteri autoritari cercano di censurare in maniera illiberale, dall'altra è proprio su Internet che il peso di determinati reati si è aggravato: basti pensare ai siti dei pedofili, sulla compravendita di innocenti, alle diffamazioni e calunnie, spesso ingiustamente sottovalutate, difficili da cancellare e da perseguire: violenze psicologiche che a volte si sono rivelate vere torture per chi le ha subite, tanto da provocare alcune volte suicidi in seguito a certi episodi. Inoltre Amadei esplora, con cognizione di causa, anche diversi modi di funzionare di un motore di ricerca (perlopiù oscure ai profani), che non si muove in modo del tutto automatico, ma che risponde anche a determinate "scelte" dei suoi gestori, attuate scientemente secondo criteri di convenienza di varia natura.
Ricciardi: “Fra gli utenti di Internet si va diffondendo l’opinione – vedi anche alcuni articoli sul sito 21e33 – che la cosiddetta "ottimizzazione dei motori di ricerca", o alcune pagine web come ad esempio la celeberrima enciclopedia on line Wikipedia, né offrono una analisi obbiettiva e neutrale di certe realtà e argomenti, né – è il caso di Google – selezionano le notizie in modo veramente spontaneo e automatico. Claudio Moffa sostiene ad esempio che il motore di ricerca di Page e Brin cerca di favorire la posizione di determinate pagine web rispetto ad altre, dal contenuto politicamente meno "corretto", migliorando la posizione delle prime così da favorirne il più facile reperimento già nelle prime ricerche su Internet, rispetto alle seconda. Al di là dell'ipotetico significato politico del fenomeno, le è possibile chiarirci, in quanto esperto in materia d'Informatica, il modo in cui sia possibile tale gestione della rete? Ed è secondo lei possibile individuare traccia  di questa  possibile semi-censura, che avrebbe conseguenze  sulla facilità o meno di reperire determinate notizie a livello, oramai, semi-planetario?”
Amadei. “Prima di tutto bisogna considerare che il motore di ricerca Google (così come tutto gli altri motori di ricerca presenti nella rete) è il prodotto di una azienda di tipo commerciale: pertanto il risultato del suo funzionamento segue necessariamente le logiche di profitto ancor prima delle logiche di servizio. In questo caso si assiste ad una sovrapposizione teorica delle logiche applicate proprio perché il profitto sarà maggiore quando il servizio sarà migliore. Questa sovrapposizione tuttavia non può considerarsi una coincidenza.
  Prima dell’avvento di Google, che possiamo ritenere una piccola rivoluzione in materia di ricerca su internet
  , esistevano ed erano regolarmente interrogati svariati motori di ricerca. Anche le loro logiche erano puramente commerciali per cui era possibile addirittura pagare per ottenere i primi posti in classifica. Questa metodologia si è rivelata però insufficiente a fornire le risposte all’utente ed i metodi di ricerca si sono sempre più affinati cercando di intuire sempre di più cosa fosse realmente interessante per i fruitori.
Dal punto di vista tecnico il risultato ottenuto interrogando un motore di ricerca è il prodotto di una serie non indifferente di valutazioni e di classificazioni che il motore ha effettuato precedentemente. Analizzare tutte le valutazioni e tutte le classificazioni sarebbe impossibile, per il fatto stesso che i laboratori di Google lavorano a tempo pieno e costantemente per migliorare ed affinare gli algoritmi di ricerca. Cominciamo con il dire che effettuare una ricerca prevede l’interazione di due sistemi. Il ricercatore e la base di dati. Nessuno si preoccupa di pensare che il primo filtro di una ricerca è posto dal cervello del ricercatore che seleziona le parole da ricercare. Modificare le parole, invertirle, sceglierle accuratamente comporta sempre risultati diversi.
  Il motore di ricerca agisce meccanicamente applicando le sue regole, effettua la ricerca richiesta all’interno del suo database e propone i risultati ordinati in base ai criteri ed ai valori che ha assegnato al singolo risultato. Alla base delle ricerche c’è l’attività di indicizzazione che il motore effettua, ovvero la complessa attività di catalogazione dei contenuti. Tale catalogazione, sebbene troppo complessa per questa trattazione, tiene conto di alcune regole fondamentali:
•    le informazioni residenti su server particolarmente veloci avranno maggior risalto poiché vengono rispettati i criteri di accessibilità e rapidità
•    le pagine che cambiano costantemente i loro contenuti hanno maggiore considerazione delle pagine statiche perché viene rispettato il criterio di novità
•    pagine troppo pesanti (peso del solo codice superiore ai 100Kb) pur essendo indicizzate rischiano di risultare meno interessanti perché non rispettano il criterio di rapidità
•    il numero di pagine appartenenti allo stesso dominio deve rispettare il criterio di quantità
•    la corrispondenza tra contenuti, titolazione e parole chiave rispetta il criterio di qualità
 
  A questi criteri base per la valutazione il motore ne aggiunge molti altri quali la disponibilità del sito ad essere raggiunto ed indicizzato (ottenuta attraverso codice del motore inserito nelle pagine del sito), la contestualizzazione del sito nella rete considerato attraverso la valutazione di quanti link di altri siti rimandano ad una certa pagina ed infine l’appetibilità determinata in base a quante visite ottiene una certa pagina, ovvero quanto questa è interessante per gli utenti della rete.
  Infine, per rispondere alla domanda (le premesse erano doverose), credo sia possibile intervenire sui risultati delle ricerche semplicemente imponendo nuove regole ai filtri, anche se questo non lo interpreto come una censura: il fatto che il motore di ricerca non raggiunga un contenuto non esclude la presenza del contenuto sulla rete. La maggior parte delle volte invece avviene che i contenuti sono messi sulla rete utilizzando sistemi che non tengono conto delle esigenze del motore di ricerca ed è questa la prima ragione per cui tali contenuti non vengono raggiunti. Inoltre c’è da dire che la struttura della rete internet è oggi particolarmente complessa e diffusa. Agli inizi dell’era internet mi colpiva il fatto che con estrema facilità fosse possibile posizionare nella stessa pagina contenuti fisicamente conservati in località diverse, per cui era possibile comporre una pagina di un portale utilizzando alcune notizie prese da una banca dati di Tokyo, affiancandole ad altre prese da una database di Firenze ed altre da New York. Oggi la struttura della rete è molto più articolata e molto più estesa. Questo ha obbligato l’inserimento di molti altri sistemi di filtraggio, per lo spam nella posta elettronica, per le navigazioni inopportune all’interno degli uffici pubblici ecc…
  Questo per sottolineare che quando non si raggiunge un contenuto con buona probabilità siamo incappati in qualche filtro, ma la localizzazione del filtro non è così facile da individuare se non è il filtro stesso a dichiararsi. Potrebbe trattarsi dei criteri di protezione locali impostati sulla macchina, oppure del firewall aziendale, o di qualche appliance posizionato a tutela della rete della struttura nella quale navighiamo, oppure di un firewall a livello regionale (o di paese come avviene a Cuba o in Cina), oppure di un filtro posto dal motore di ricerca (ma in questo caso si potrebbe tentare l’utilizzo di motori di ricerca alternativi).
  In merito alla questione delle tracce la cosa diventa ancora più  complessa. Di norma le macchine tengono sempre traccia del loro operato, il problema è che l’accesso a queste informazioni è riservato agli amministratori di sistema e sono quindi irraggiungibili per il singolo utente. Infine voglio ricordare, così come ho detto all’inizio, che Google è una azienda di profitto per cui la logica del suo intervento è sempre mirata a fornire il miglior servizio per ottenere il maggior profitto: per questo ritengo improprio parlare di “censura”, lo sarebbe se si trattasse di un organo di Stato. Ma internet proprio per la sua dimensione non può essere un affare di Stato, o per lo meno del singolo Stato”.
Ricciardi: “Dunque i privati agirebbero non per censura come eventualmente gli Stati, ma solo per motivi di profitto. Ma come pensare che un “editore” o un “distributore” Internet – che sia google di Page e Brin o fastweb – non possa avere anche una propria ideologia, e che tale ideologia voglia imporre all’utenza attraverso una selezione accurata (cioè frutto di una volontà censoria) di siti e notizie, alcuni-e privilegiati-e e altre invece omesse o nascoste nei meandri infiniti della rete? Le proponiamo un esempio: tramite Fastweb viene spedito un tal messaggio, con un allegato con un determinato titolo, proveniente da una determinato utente ovvero computer, e questo messaggio o viene automaticamente trasformato in spam, ovvero più spesso non viene inoltrato e si riceve un avviso di mancato recapito con questa dizione: “refused message: error 554”. Cercando su Internet “error 554” si scopre che c’è un problema di “policy”. Se poi si prova a rispedire il messaggio togliendo il link al suo interno del sito di riferimento che si sta pubblicizzando, ovvero separando accuratamente i diversi elementi del link stesso (www spazio . spazio viapalestinalibera spazio . spazio it) allora il messaggio passa: tranne che non ci sia un allegato il cui titolo richiama ancora un contenuto inviso alla “policy” del “distributore” fastweb. Questa non è censura? Perché escludere a priori che il filtro applicato dal “distributore” non possa rispondere anche a criteri ideologici?
 
Un secondo esempio, un paio di casi veri riferiti a due persone: il signor Caio digita il suo nome virgolettato su google e vi trova da circa due o tre anni sempre la stessa schermata iniziale, nonostante la sua intensissima attività professionale, coinvolgente nomi autorevoli che vamnno per la maggiroe anche su Internet, schermata fissa, statica, con sempre due tre strisce non piacevoli., alludenti a una polemica sul cosiddetto antisemitismo a cui lui ha risposto suy ingternet: ma ci sono solo le critiche altrui, mai la sua risposta, e soprattutto mai il fiume di iniziative piuù recenti da lui prodotte negli ultimi anmni. Sevcondo lei è da escludere una diminutio ad personam, magari automatica, ma attuata appunto attraverso il filtro fisso che impedisce il rinnovamento della prima schermata google? E come mai altri motori di riucerca invece adeguano la loro prima schetrnmata secondo le notizie più recenti, e non contengono quelle strisce demonizzanti? Chi e cosa decide della diversa immagine fornita all’utenza planetaria del signor Caio?  
  Un terzo esempio: la schermata google del signor Caio contiene il numero di 33mila cliccate la mattina presto. Una o due ore più  tardi, lo stesso numero, come da fotocopia che riproduciamo sul sito, cala improvvisamente a 9-10mila strisce. Come è possibile questo, senza un intervento non automatico, visto che lo stesso Caio ha verificato per altri nomi la fissità del numerto delle strisce contate da google? E’ da escludere a priori una diminutio del signo Caio da parte del motore di ricerca Google?”
Amadei: “Definire le logiche con cui una impresa intende agire non è cosa semplice e identificare delle ideologie dietro alla definizione delle policy è una intuizione interessante che esula dalle mie dirette competenze.
Vero è  che la definizione delle policy (ovvero dell’insieme delle regole che agiscono meccanicamente nel trattamento dell’informazione) può essere effettuata sia a livello di gruppo che di singolo utente, sia a livello di informazione specifica, sia a livello di indirizzo fisico dell’hardware trasmittente. Sarebbe interessante poter effettuare diverse prove per verificare il comportamento anomalo riportato nell’esempio. Si potrebbe cercare di spedire la stessa mail utilizzando circuiti di recapito differenti per verificare le diverse risposte dei server coinvolti. Non spetta a me definire se si tratti o meno di censura tuttavia, nell’informatica esistono una serie di regole e di assunti imprescindibili: non esiste una sicurezza che non possa essere violata, questa è una regola bidirezionale e vale sia per chi impone le policy sia per chi le subisce. Ancora vorrei sottolineare che le policy rappresentano un insieme di regole, spesso interconnesse che possono agire su tutti i livelli, è dunque l’insieme che dà il risultato.
Ad esempio se una policy legata all’uso di parole sensibili investe una persona considerata appartenente ad un gruppo specifico, potrebbe non investirne un’altra non considerata nello stesso gruppo.
Questo ci dà la possibilità di toccare un altro tema importantissimo sulla rete nel mondo del cosiddetto web 2.0: la profilazione dell’utente.
La profilazione è la vera rivoluzione del mondo internet e sta velocemente cambiando la faccia e le abitudini del web, ogni sito ha bisogno di raccogliere informazioni circa i propri utenti spesso con il semplice obiettivo di proporre sempre le pagine più interessanti in relazione al profilo del visitatore, altre volte semplicemente per acquisire dei dati.
Ovviamente esistono delle tecnologie che possono essere messe in campo: i cookie, i classificatori, le directory, ecc. Occorre prendere in considerazione queste tecnologie con particolare riferimento all'impiego in un sistema di profilazione ma probabilmente non è questa la sede.
La classificazione potrebbe essere intesa anche come un atto istintivo di tutti gli esseri viventi, ogni nuova esperienza, subito viene classificata in una particolare categoria.
Gli strumenti informatici disponibili per effettuare tale attività si chiamano classificatori, studiati a partire dagli anni '50, con lo scopo di definire, in maniera automatica, delle regole generali per dedurre la classe di appartenenza di ogni oggetto da una serie di esempi (training set). Il tutto a partire dalla considerazione che, qualora il numero di esempi fosse sufficientemente grande e ben distribuito sulle classi esistenti, le regole desunte si potrebbero applicare a nuovi oggetti con margini di errore del tutto trascurabili. Gli algoritmi così definiti producono una struttura dati, utilizzando la quale, è possibile classificare un oggetto.
L’utilizzo domestico della rete internet ci ha convinti che oggi sia possibile raggiungere qualsiasi tipo di informazione semplicemente inserendo qualche parola all’interno di un motore di ricerca. Un utente accorto tuttavia intuisce immediatamente quanto risulti inversamente proporzionale il rapporto tra la quantità e la qualità dell’informazione fruita, e quanto sia sempre più complesso ottenere informazioni dettagliate per utenti meno esperti.
La rete oggi rappresenta la più grande e disorganizzata biblioteca del sapere, per questo lo sviluppo di catalogatori e di regole per il reperimento delle informazioni è diventato prioritario, così come lo è diventata la necessità di selezionare la modalità con cui le informazioni vengono restituite agli utenti.
Si intuisce qui come la profilazione sia il primo elemento alla base delle policy. Il vero grande interrogativo è proprio questo: il sistema di catalogazione adottato dai più importanti motori di ricerca è realmente funzionale ed adeguato alla molteplicità delle esigenze dell’utenza?
Infine per quanto riguarda i messaggi di errore c’è sempre da considerare che anche i server restituiscono messaggi in base ad un complesso sistema di regole e non sempre i messaggi restituiti corrispondono ad una informazione reale. La sintassi delle macchine è molto ridotta e i messaggi di errore vengono raggruppati in macrofamiglie per semplicità.
Per quanto riguarda il secondo esempio, in parte la risposta è già stata accennata. Il motore di ricerca offre al visitatore delle risposte che, nel tempo, vorranno essere sempre più dinamiche, pertanto si sta uscendo dal concetto dell’assoluto nella risposta agli argomenti trattati e si entra nel relativo, quel relativo che tiene sempre presente la ricerca che l’utente ha effettuato nelle precedenti sessioni. L’intento è sempre sano, ovvero quello di offrire all’utente le informazioni maggiormente in linea con il suo profilo, che, presumibilmente, saranno anche quelle di maggiore interesse. Tuttavia anche in questo caso si nascondono molteplici limiti. Quello che differenzia il sistema di google rispetto agli altri motori di ricerca è stato proprio l’inserimento del concetto di appetibilità, ovvero l’importanza della pagina presentata in base alle visite che questa ha ricevuto e alle volte che la stessa pagina viene richiamata da altre pagine. Questo giustifica le differenze nelle risposte da parte dei diversi motori. Dal punto di vista tecnico non è da escludersi l’ipotesi di un filtro fisso anche se è da ritenersi altamente improbabile. Le regole che compongono le policy sono molteplici e diversamente concatenabili, ma soprattutto si deve considerare che la tendenza è quella di offrire sempre risultati dinamici, anche nell’ambito della ricerca orientata alle stesse chiavi.
Analogamente per quello che mi è dato di capire in merito al terzo esempio non è da escludersi che pagine che riportino informazioni in violazione di un certo numero di policy possano essere volutamente sospese da un motore di ricerca per una successiva verifica, e che in quel momento ne venga abbassato il valore (rank) verso l’interesse della comunità internet, così come non sarebbe da escludersi l’ipotesi di un problema su qualche server DNS di livello internazionale che abbia iniziato una reazione a catena in grado di abbassare fortemente il rank di alcune pagine specifiche. Purtroppo per poter analizzare a fondo certi fenomeni servono strumenti di controllo in tempo reale. In ogni caso, considerato un sistema complesso come quello di google, e considerata l’attività di caching effettuata da centinaia di server in tutto il mondo nonché l’imprevedibilità dell’informazione e della sua diffusione, un intervento umano diretto sembra sempre altamente improbabile, ciò che non è affatto improbabile è invece l’esistenza di regole e policy mirate a chiavi di ricerca specifiche, così come non si può escludere l’esistenza di policy specifiche indirizzate al monitoraggio di persone, gruppi oppure a pagine particolarmente sensibili. Concludendo, resto sempre dell’idea che google sia una società lucrativa mossa da una logica di profitto, per questo sarà sempre possibile, in qualche modo, acquistarne i servizi”.  
 
 
Ricciardi: “Ultimamente, Google ed il governo della Cina comunista stavano negoziando un accordo che regolasse l'accessibilità delle pagine raggiungibili attraverso questo motore di ricerca, il più potente e diffuso al mondo, in questo Paese, a sua volta molto importante strategicamente. Da una parte, quindi, c'è il governo di uno Stato che certamente, in politica interna, si è mostrato spesso autoritario ed illibertario, dall'altra un potentissimo veicolo d'informazioni che, in assenza di un unico regolamento che lo riguardi, e che concerna anche altri motori di ricerca, a volte è stato considerato non gestire sempre in maniera trasparente le pagine Internet raggiungibili attraverso di esso. I dirigenti di Google e la Cina si erano scambiati, così, reciproche accuse a proposito di chi reprimesse e spiasse l'altro. Si dialoga molto sull'auspicabilità di riforme in senso libertario a proposito della situazione interna cinese, ma quanto potrebbe essere possibile, dal punto vista tecnologico e finanziario, la costruzione di motori di ricerca, servers e providers con regole diverse dai gruppi oggi dominanti, per garantire un maggiore pluralismo delle informazioni veicolate dai motori di ricerca? Diverse critiche a Google hanno riguardato proprio una certa sua gestione con decisioni di natura privatistica, senza dialettica interna, per cui l'effetto risulta immediato e senza possibilità di appello, almeno per il momento…”
Amadei: “Affrontiamo il problema della Cina esclusivamente dal punto di vista tecnologico, esattamente come una azienda si comporta nei confronti della sua rete interna.
Siamo tutti disposti, ad esempio, a ritenere importante che la rete didattica di una scuola connessa ad internet abbia la possibilità di filtrare i contenuti relativi a sesso esplicito. C’è infatti molta attenzione a costruire segmenti di rete definiti “protetti” o filtrati in modo che i fruitori non si trovino esposti al rischio di informazioni non desiderate. Un intero paese potrebbe decidere di filtrare nello stesso modo la globalità delle informazioni fruite all’interno della propria sottorete. Certamente attraverso l’impiego di tecnologie molto sofisticate e complesse che possano tenere conto di tutti i protocolli di navigazione (non solo quello del web) e di tutte le possibili connessioni (incluse le satellitari e le decadiche intercontinentali). Una sottorete aziendale si filtra attraverso l’applicazione di appositi hardware, di diversa misura in base all’utilizzo, tutti posti nell’unico punto di congiunzione tra la rete aziendale e la rete internet. A livello nazionale, chiaramente, le cose sono diversamente complesse ma non impossibili. Ovviamente questo presuppone la gestione completa delle telecomunicazioni e delle comunicazioni date all’interno del paese. Parliamo quindi di un regime già organizzato.
  Per rispondere alla domanda credo che il problema di garantire un pluralismo nell’informazione non sia legato ai motori di ricerca, peraltro ve ne sono già numerosi e tutti con diverse peculiarità. Il motore può poco quando l’informazione viene filtrata a monte. L’effetto che si otterrà, sarà che il motore, pur trovando l’informazione, non potrà pubblicarne i contenuti sulla sua pagina perché questi verranno bloccati nell’atto della generazione della pagina”.
Ricciardi: “Internet è spesso un meraviglioso strumento di libertà e conoscenza, ma non mancano anche alcuni effetti negativi di un suo uso, invece, deprecabile (ed, a volte, addirittura esecrabile): per questi ultimi casi, basti pensare ai siti di sfruttamento sessuale contro i bambini, i cui reati di pedofilia sono addirittura alla luce del Sole, non diversamente dai casi di diffamazioni e calunnie: queste ultime, nei fatti, sono di tipo profondamente più grave della diffamazione a mezzo stampa (cartacea), in quanto rischiano di diventare permanenti, mentre, un giornale quotidiano, ad esempio, dopo un giorno non è più in circolazione nelle edicole. Certo, questi reati si possono e devono considerare tali anche su Internet, ma spesso ci sono grossi ostacoli al raggiungimento della giustizia contro tali atti: a volte, infatti, questi siti dove essi avvengono hanno un server all'estero, cioè sono registrati fuori dall'Italia…nasce, così, un problema di giurisdizione su chi abbia la competenza territoriale per giudicare questi illeciti. Stando così le cose, è necessaria una rogatoria internazionale per chiedere il perseguimento di questi reati, cosa che spesso non viene neanche richiesta dai procuratori che, a volte con l'intento di non spendere risorse per qualcosa che non ritengono neppure particolarmente probabile che venga accettato, non provano neppure ad ottenere giustizia per questi atti; inoltre, spesso si verifica che le stesse rogatorie internazionali non vengano accolte negli Stati cui vengano chieste, per partito preso e nonostante la presenza reale di reati. Le cause contro questi reati possono essere di natura civile e penale, ma, riguardo le cause civili, c'è un ulteriore ostacolo all'azione giudiziaria contro diffamatori e calunniatori, in quanto, per queste ultime, è necessario citare l'identità di coloro i quali vengono ritenuti responsabili di questi atti delinquenziali, ma l'identità di tali individui viene spesso celata da un facile anonimato su Internet, non diversamente da quello che possa avere chi scriva lettere anonime di tipo, appunto, diffamatorio e calunnioso. Le chiedo, quindi, se sia a conoscenza di strumenti particolari che l'Informatica offra per arrivare all'identificazione degli autori di questi atti, sia che siano in Italia sia che si trovino all'estero…”
Amadei: “Il problema della “giustizia” sulla rete è un problema articolato e complesso che si è presentato fin dalla nascita della rete stessa. Nel caso della rete internet siamo di fronte quasi ad un paradosso, poiché l’evoluzione della tecnologia e la nascita di nuovi strumenti è decisamente più rapida della capacità di legiferare di qualsiasi paese. Esistono quindi delle linee generali, così come esistono dei patti bilaterali tra i paesi che riguardano la rete internet nello specifico, tuttavia la normativa e la giurisprudenza saranno sempre un passo indietro alla tecnologia. Senza contare poi tutte le varie sfumature assunte dallo stesso reato in Paesi diversi per cui ciò che è punibile severamente in un Paese potrebbe essere impunito in un altro inserendo così il problema della localizzazione del reato.
Internet è  una realtà troppo “giovane” per poter essere già completamente sottoposta a norme e alcuni Paesi, tra cui l’Italia, sono assolutamente lenti nella produzione di regole tanto che spesso capita di sentir parlare di codici di autoregolamentazione (ovvero patti sottoscritti da gruppi di intesa).
  L’anonimato offerto dalla rete rappresenta poi un’aggravante serio per l’identificazione del reo, tuttavia in molti casi, con la collaborazione dei providers, seguendo le tracce lasciate dagli utenti è possibile risalire almeno alla postazione utilizzata. Più difficile diventa dimostrare chi la stava utilizzando. Dal punto di vista tecnico devo concludere che sia assolutamente possibile eludere molti dei controlli effettuati dai sistemi e rendere la propria navigazione totalmente anonima, questo però comporta la violazione di diversi sistemi oppure l’allestimento di una catena di sistemi virtuali posti a protezione. Allo stesso modo direi che un buon informatico sia in grado di risalire parecchio seguendo le tracce lasciate dall’utilizzatore, tuttavia occorre considerare che la maggior parte delle volte il gioco non vale la candela poiché ci si avvicina a costi decisamente esagerati per i tipi di reati commessi sulla rete. Ciò che sarebbe auspicabile è un accordo internazionale tra tutti i Paesi che fruiscono della rete internet, la definizione di regole e protocolli di base che valgano per tutti ed una struttura internazionale di riferimento per i reati informatici. Probabilmente questa sarà la tendenza ma non dimentichiamo che il mondo internet è talmente giovane che questo tipo di organizzazione, ad oggi, può solo essere auspicato”.
Prefazione e quesiti di Antonella Ricciardi

Condividi questo articolo qui:
Stampa questo post Stampa questo post