La sicurezza è un aspetto di ogni processo aziendale, di ogni attività personale. Prevedere possibili eventi dannosi e stimarne la verosimiglianza e l’impatto fa parte integrante di ogni attività di progettazione o di revisione. Per passare dall’immaginazione alla concretezza, occorre saper cogliere i legami interni e trasversali dei sistemi e dei loro ambienti, per quanto complessi essi siano.
Pochi per esempio tengono presente l’importanza della formazione del personale. Ma se la maggior parte degli attacchi segue tecniche di social engineering, come farne a meno?
Il sistema di backup, l’antivirus, il firewall e la prassi di aggiornamento dei software sono adeguati?
Ci sono computer o altri dispositivi ormai obsoleti dal punto di vista della sicurezza?
Nel dark web, stanno girando le tue credenziali?
In caso di attacco informatico già consumato, come documentare l’accaduto? Vale la pena fare una querela?
Quanto manca al sistema informativo aziendale per essere conforme alla norma ISO 27001?
Queste sono alcune delle questioni per le quali posso essere d’aiuto.
Le micro, piccole e medie aziende del Veneto possono trarre beneficio dall’Intelligenza Artificiale? Come?
Per dare qualche spunto utile ad orientarsi, è utile prima prendere in considerazione qualche numero, qualche dato statistico. Inoltre, è bene chiarire a quali tecnologie ci riferiamo. Fatti questi due passaggi, potremo calarci nell’argomento adeguatamente attrezzati.
Qualche dato sul tessuto imprenditoriale del Veneto
Il Veneto conta numerose micro/piccole/medie imprese. Cominciamo col dare il nome alle cose. La categoria delle microimprese è caratterizzata dal fatto che comprende dai 3 ai 9 addetti. Le piccole imprese, invece, ne contano dai 10 ai 49 e le medie dai 50 ai 249. Nel canale dai 250 addetti in su, l’ISTAT colloca invece le grandi imprese. Nel Rapporto Statistico 2020, il Veneto risultava essere la quarta regione in Italia per numero di imprese attive (104.096 nel 2019), dopo Lombardia, Campania e Lazio, con una media di 4,3 addetti per impresa. Le imprese attive fino a 250 addetti e con un giro d’affari inferiore a 50 milioni di euro, impiegano il 77,2% degli addetti e rappresentano il 99,8% delle imprese attive dell’industria e dei servizi. Nel 2018, si trattava per il 77,7% delle aziende Venete con almeno 3 addetti aziende erano controllate da persona fisica o famiglia.
In conclusione, il Veneto è caratterizzato da un elevato numero di aziende microscopiche o piccole, prevalentemente a conduzione personale o familiare.
Qualche precisazione sul concetto di Intelligenza Artificiale
L’intelligenza artificiale è una sotto-disciplina dell’informatica, focalizzata sul trattamento intelligenze dei dati. La dicitura “intelligenza artificiale” viene però utilizzata solitamente per indicare il più recente sviluppo informatico di ampia diffusione nel mercato. Attualmente, si tratta dell’elaborazione del linguaggio naturale e della generazione automatica di testi, immagini e suoni. Combinando queste tecniche con ampie banche dati o raccolte di testi ed aggiungendo algoritmica q.b. si può ottenere l’estrazione e la generazione di nuova conoscenza.
Per esempio, se connettiamo un costrutto di analisi del linguaggio naturale con il servizio di fatturazione elettronica, potremmo ottenere una proposta di contabilizzazione delle fatture passive. Ciò significa, che il costrutto proporrebbe, per ciascuna riga della fattura, un conto da associare e, conseguentemente, i movimenti contabili. Al contabile resta un’attività di controllo, correzione e gestione dei casi particolari.
Vorrei sottolineare che non penso che il costrutto possa effettuare direttamente la contabilizzazione senza la supervisione di un essere umano. A differenza degli algoritmi, i costrutti basati su criteri statistici forniscono sempre risultati incerti. Abbattere il rischio di un’errata contabilizzazione val bene il poco lavoro umano necessario per il controllo.
Esempi simili si possono facilmente immaginare nella logistica degli acquisti, delle spedizioni e delle vendite. Disporre di modelli predittivi e di ottimizzatori consente di focalizzare il lavoro umano sul controllo e sugli aspetti tattici e strategici, riducendo l’operatività con poco valore aggiunto.
Cosa succede se una MPMI adotta strumenti di IA?
Nell’arco della mia vita, l’informatica nelle MPMI è passata dal non essere contemplata ad essere irrinunciabile vari processi aziendali, come minimo quello amministrativo. Negli altri, comunque, rende l’impresa competitiva quand’è applicabile. Questo vale in particolare per l’intelligenza artificiale. Dunque si tratta di esercitare la propria creatività.
Ecco alcune aree in cui le PMI potrebbero sfruttare queste tecnologie.
Customer Support: realizzare chatbot o sistemi di assistenza automatica basati su NLP può migliorare l’efficienza nel fornire supporto ai clienti, rispondendo a domande comuni o risolvendo problemi di routine. Se anche l’Intelligenza artificiale viene usata solo a supporto degli addetti all’assistenza, sappiamo che l’operatore soddisfatto trasmette il proprio sentire al cliente, creando una relazione virtuosa.
Analisi dei Feedback: utilizzare l’NLP per analizzare recensioni dei clienti, feedback sui social media o e-mail può fornire informazioni preziose sulla percezione del marchio e identificare aree di miglioramento.
Generazione Automatica di Contenuti:
Marketing: creare automaticamente contenuti per i social media, blog o newsletter può semplificare il processo di marketing, garantendo una presenza online costante.
Report aziendali: automatizzare la generazione di report interni può risparmiare tempo e ridurre la possibilità di errori umani.
Accesso a Banche Dati e Fonti Dati:
Ricerca di Mercato: utilizzare l’IA per analizzare grandi quantità di dati provenienti da fonti diverse può fornire informazioni dettagliate sul mercato, i concorrenti e le tendenze di settore.
Gestione dell’ERP: ottimizzare processi come la gestione delle scorte, la previsione della domanda e la pianificazione della produzione.
Informazioni Commerciali:
Analisi dei Dati Aziendali: aiutare ad identificare opportunità di crescita, prevedere la domanda dei clienti e ottimizzare le operazioni.
Personalizzazione dei Prodotti e Servizi: basandosi sui dati dei clienti, l’IA può aiutare le MPMI a personalizzare prodotti o servizi in modo più efficace, migliorando l’esperienza complessiva del cliente.
L’adozione di queste tecnologie richiede una valutazione attenta delle esigenze specifiche dell’azienda, delle risorse disponibili e delle sfide potenziali. C’è poi la questione che a noi veneti piace poco affrontare: il personale va formato e riqualificato. Tuttavia, se implementate correttamente, le tecnologie legate all’IA possono contribuire significativamente all’efficienza operativa, all’innovazione e alla competitività delle PMI venete. Non è un treno che ci si possa permettere di perdere.
Le tempistiche sono cruciali. Sappiamo infatti che le tecniche di intelligenza artificiale qui citate sono già ampiamente consolidate da decenni in ambito accademico ma solo di recente sono state immesse sul mercato. Dunque, c’è la possibilità di acquisire gradualmente questi preziosi strumenti, approfittando di sistemare anche altre magagne che inevitabilmente emergeranno lungo il cammino di trasformazione digitale.
Si parte da un’idea o caso d’uso con reale necessità, la cui prima fase già ripaga l’investimento. Il risultato si reinveste nella fase successiva, di fatto auto finanziando il progetto. Basta iniziare con piccole cose, ottenere risultati e procedere.
È cruciale è credere nell’obiettivo, controllare gli sviluppi passo passo, coinvolgendo tutti gli attori: clienti, personale interno e finanziatori.
La chimica computazionale è affascinante… ed è un bel business! In pratica, con le risorse informatiche è possibile simulare il comportamento di sostanze chimiche prima di averle sintetizzate. Per esempio, se si desidera modificare il comportamento di un farmaco in modo che reagisca con determinate sostanze in un certo modo, una casa farmaceutica può chiedere ad un laboratorio di calcolo specializzato di progettare la molecola.
Naturalmente, la potenza di calcolo necessaria per la simulazione comporta dotazione hardware di alto livello. Non è da stupirsi se, non solo i dati, ma anche la struttura informatica in sé suscitano l’interesse di chi fa il mining di criptovalute. Se poi ci aggiungiamo l’ambientazione universitaria, ecco che si spiega perché la messa in sicurezza informatica del laboratorio è importante.
Nel caso specifico, il laboratorio è interamente basato su sistemi operativi Linux, situazione piuttosto frequente in ambito universitario, analogo a quello in cui Linus Torvald gli diede i natali.
La collaborazione ha toccato vari aspetti del laboratorio:
gestione centralizzata degli utenti;
firewalling;
gestione dello storage;
accesso in sicurezza da remoto alle risorse di calcolo del laboratorio;
Un eMarketplace è un luogo virtuale, o non-luogo, d’incontro tra domanda ed offerta di beni. Molte aziende commerciali sono rimaste focalizzate sui processi logistici fisici e non hanno ritenuto vantaggioso aprire i canali on line.
Salesbridge si propone come intermediario tra fisico e virtuale, portando negli eMarketplace più famosi (come Amazon ed eBay) i cataloghi di queste aziende.
L’iniziativa è nuova fiammante e c’è molto da fare. Con OTS Sistemi stiamo allestendo il modello dati, le interfacce utente di gestione etc. tutto ciò che serve per tenere sotto controllo i sistemi di automazione di vendita.
È davvero emozionante attivare comandi che, in pochi istanti, mettono o tolgono dai canali di vendita migliaia e migliaia di articoli!
Se non sai cos’è uno sleeve nel mondo del confezionamento (packaging) te lo dico io: si tratta di un’etichetta di materiale plastico termoretraibile che si adatta all’involucro (es. lattine, bottiglie) e lo riveste. Tra le varie caratteristiche, c’è un vantaggio pubblicitario: mette a disposizione un’ampia superficie su cui poter esporre testi e grafica.
Ad oggi esistono persino stampanti digitali per sleeve, per cui è possibile produrre anche basse tirature ed arrivare a personalizzare sleeve per eventi, occasioni speciali ed organizzazioni.
Con PNG, abbiamo messo a disposizione di PackSleeve uno strumento che consente di produrre decine e decine di immagini fotorealistiche di contenitori sui quali è stato applicato uno sleeve con grafica a tema. È una declinazione della tecnologia “web-to-rendering”, analoga alla più famosa “web-to-print”. Ebbene sì, posso dirlo non senza una punta d’orgoglio: noi di PNG l’abbiamo inventata.
La solidarietà non può essere buonismo e, raggiunta una certa soglia di complessità, ha bisogno di controllo e coordinamento.
Un emporio solidale raccoglie viveri ed altri beni di prima necessità e li distribuisce ad indigenti sulla base delle necessità di cui sono portatori, valutate da soggetti autorevoli come la Caritas o l’Associazione San Vincenzo, spesso in collaborazione con il Comune o con l’Azienda Sanitaria.
Per una corretta ed equa distribuzione dei beni di prima necessità, quando gli utenti sono alcune decine, non si può non ricorrere ad un software che aiuti a tener traccia del comportamento economico di ciascuno presso l’Emporio.
Ma c’è un’altra questione: stiamo parlando di organizzazioni basate eminentemente sul volontariato, dunque su disponibilità frammentarie e discontinue. Di nuovo, il software aiuta a mantenere la coerenza del servizio e la conformità rispetto alle procedure definite.
Per completare il quadro occorre tener presente la necessità di rendicontazione. L’Emporio deve riferire ad alcuni importanti enti “sponsor”, in modo da giustificare l’attività condotta.
Con Connexio, tutte queste questioni sono state valutate nel dettaglio e codificate.
Cos’hanno in comune il caso di un’azienda che produce pesce, con fatturato di qualche decina di milioni di Euro, e quello di un’azienda locale con dimensione inferiore di un’ordine di grandezza che si occupa di distribuzione di volantini? Per entrambe, il processo “produttivo” principale consiste nel presidiare il territorio, pianificando visite commerciali ed imparando da ogni campagna, da ogni visita.
Bastano poche persone per creare una situazione sfuggente. In un caso, ciascun cliente genera numerosi dati, nell’altro il volume dei dati è determinato dal numero di persone che si occupano della distribuzione giorno per giorno incontrando gli imprevisti più disparati.
In un caso, ciascun commerciale deve seguire nel tempo una strategia intelligente e ben coordinata. Nell’altro, è importante essere molto reattivi e prendere decisioni rapide per far fronte agli ostacoli che via via si presentano.
In entrambi i casi, Connexio è stata la soluzione, adattandolo sartorialmente ad entrambi i trattamenti di dati.
Hanno molto in comune le reti di consulenti, indipendentemente dalle dimensioni e dall’area geografica di riferimento.
Ho seguito per qualche anno i partner di un fondo d’investimento d’Oltralpe, sto seguendo da molti anni un’organizzazione ad “azienda virtuale” per aziende italiane di media grandezza, specialmente nel settore dell’arredamento, do supporto alla mia stessa rete di collaborazione.
Ah, se non sai cos’è un’azienda virtuale ecco un breve accenno: è un’organizzazione che potenzialmente è costituita da un gran numero di risorse ma che si manifesta solo con alcune di esse progetto per progetto, a seconda delle necessità. Dunque, è come se ci fosse un’azienda di volta in volta diversa.
Tornando all’argomento principale, in tutti i casi il cardine è la diade formata dal programma di comunicazione e condivisione e dal programma di amministrazione. Questo non è molto diverso dalle solite aziende. La problematica specifica è l’estremizzazione di alcuni aspetti:
il personale non è legato ad una sede fisica, si sposta, ma deve comunque poter accedere ai trattamenti di dati in base alle proprie aree di competenza;
siamo nel settore detto dei KIBS, cioè dei Knowledge Intensive Business Services: il prodotto di questi operatori è costituito da asset informativi e conoscitivi condivisi con i clienti;
a seconda della forma organizzativa, i legami tra singolo professionista e resto della rete possono essere più o meno consolidati e duraturi ma in ogni caso ci dev’essere una cabina di regia che poi risponde davanti alla legge, quindi i rischi legali vanno gestiti bene;
possono comparire, anche temporaneamente, figure che interferiscono con il processo evolutivo condiviso con la cabina di regia;
tutte le forme di comunicazione esprimono unitarietà attraverso un livello di coordinamento elevato in rapporto alla debolezza del legame contrattuale con la cabina di regia, ricorrendo, per esempio, al VoIP ed al Centralino Telefonico Virtuale.
Nei vari casi, mi sono trovato ora a potenziare il lato amministrativo ed ora quello di comunicazione e condivisione. Ho notato che, in ogni caso, la gestione dei progetti e delle commesse tende a restare frammentata, con dispersioni anche notevoli di informazione e rischio di amnesia aziendale.
Insieme a Maurizio, ho codificato in modo unitario in Connexio i vari “pezzi” di soluzione che sono riuscito via via a mettere in campo in modo anche decentemente integrato.
Faccio un esempio: le schede anagrafiche di clienti, fornitori, collaboratori etc. Nelle reti di collaborazione, è frequentissima la situazione ibrida in cui lo stesso soggetto assume più di uno di questi ruoli. Come evitare di ri-digitare la stessa scheda e tutti i successivi aggiornamenti sia nel programma di comunicazione e condivisione sia in quello di gestione amministrativa?
Due sono le strade: o si crea un connettore tra i due programmi o… si usa Connexio, l’unico sistema che conosco che comprende entrambi i tipi di trattamento, lasciando fuori solo ciò che riguarda strettamente i rapporti col commercialista.
Se anche tu operi in una rete di collaborazione, sappi che è molto probabile che io possa essere d’aiuto per le questioni inerenti il trattamento di informazioni e conoscenze.
Una comunità è un super-organismo complesso. Nel suo interno circolano molti tipi di informazioni, si scambiano numerose comunicazioni, si creano e si condividono molte conoscenze.
In una comunità complessa, può essere difficile e insostenibile organizzare tutte le informazioni e le conoscenze secondo un unico criterio. Le comunità sono costituite da individui con diverse esperienze, punti di vista, competenze e background culturali. Questa diversità porta a una varietà di prospettive e approcci alla conoscenza.
Organizzare le informazioni in modo centralizzato e secondo un unico criterio potrebbe non tener conto di questa diversità e ridurre la complessità delle conoscenze presenti nella comunità. Invece, può essere più utile adottare approcci flessibili e adattabili per l’organizzazione delle informazioni, consentendo la coesistenza di molteplici criteri e punti di vista.
Un modo per affrontare questa sfida potrebbe essere quello di utilizzare strumenti e piattaforme digitali che consentano una categorizzazione e un’organizzazione flessibile delle informazioni. Ad esempio, l’utilizzo di tag o etichette può consentire alle persone di assegnare diverse prospettive o categorie alle informazioni, consentendo una navigazione più personalizzata e contestuale.
Inoltre, può essere utile promuovere la condivisione e l’interazione tra i membri della comunità, in modo che le conoscenze possano emergere in modo collaborativo e cooperativo. Questo può favorire l’apprendimento reciproco e stimolare l’evoluzione e l’arricchimento delle conoscenze nella comunità stessa.
L’organizzazione delle informazioni e delle conoscenze in una comunità complessa richiede un approccio aperto, flessibile e partecipativo, che tenga conto della diversità e della complessità delle prospettive presenti.
Ci sono diversi strumenti digitali disponibili che possono aiutare nell’organizzazione delle informazioni in una comunità.
Piattaforme di gestione della conoscenza: queste piattaforme consentono di organizzare e condividere informazioni in modo strutturato. Ad esempio, wiki aziendali o software di knowledge management offrono strumenti per creare, modificare e organizzare contenuti in modo collaborativo. La capacità di indicizzare contenuti multimediali e quella di trovare legami tra documenti potenzia la ricerca di contenuti e la collaborazione tra persone.
Strumenti di gestione dei progetti: software di questo tipo possono aiutare a organizzare le informazioni in modo visuale, consentendo di creare elenchi di attività, assegnare responsabilità e tenere traccia dei progressi.
Strumenti di condivisione e archiviazione dei file: le piattaforme di condivisione dei file consentono di archiviare e condividere documenti, presentazioni o altri tipi di file in modo accessibile a tutti i membri della comunità.
Strumenti di messaggistica e collaborazione: applicazioni di messaggistica di gruppo consentono di comunicare e collaborare in tempo reale, facilitando la condivisione di informazioni e la discussione tra i membri della comunità.
Piattaforme di social media: piattaforme che offrono spazi dedicati alla condivisione e alla discussione di informazioni specifiche, consentendo di creare comunità online e organizzare contenuti in modo tematico.
Strumenti di tag e categorizzazione: alcuni strumenti consentono di assegnare tag o etichette alle informazioni per organizzarle in base a categorie o temi specifici.
Questi sono solo alcuni esempi di strumenti digitali disponibili per l’organizzazione delle informazioni in una comunità. La scelta del giusto strumento dipenderà dalle esigenze specifiche della comunità e dal tipo di informazioni che devono essere organizzate e condivise.
Insieme e flusso sono due concetti fondamentali nel nostro pensiero astratto. Sono simili ma differenti. Uno dei due è stato posto a fondamento della matematica. Che succederebbe se lo sostituissimo con l’altro? Considera che l’intero edificio della matematica poggia su una manciata di postulati riguardanti il concetto di insieme: meno di una decina! Dunque, piccole variazioni della loro formulazione possono scatenare effetti a valanga. Cosa succederebbe se, addirittura, sostituissimo il concetto di insieme con quello, più generale, di flusso? Senza entrare troppo a fondo nei tecnicismi, proviamo insieme ad immaginare qualche tratto di un universo (matematico) alternativo.
Il concetto di flusso è più generale di quello di insieme
È piuttosto facile capire che ogni insieme è un flusso in cui il tempo è idealmente congelato ad un certo istante ed in cui ogni elemento è identificabile. Lo è persino la radice quadrata di due, nell’insieme dei numeri reali, visto che esiste un modo per calcolare le sue cifre decimali fino alla precisione desiderata. Oppure, per fare un esempio su un piano della realtà gestibile dai nostri sensi, immaginiamo di enumerare ad una ad una le auto che passano sotto il ponte in cui ci troviamo.
Viceversa, non tutti i flussi sono insiemi. Non sempre è possibile immaginare o rappresentare informaticamente la configurazione di un flusso ad un certo istante. Si pensi ad un flusso di cariche elettriche: troppo veloce e sfuggente per qualunque strumento di misura. Se il ponte dell’esempio precedente è molto alto e se il traffico è molto intenso allora potrebbe essere difficile osservare le auto individualmente, distintamente; ed il flusso automobilistico non potrebbe più essere considerato un insieme.
Vediamo ora come i due concetti siano differenti.
La differenza tra insieme e flusso, da 6 punti di vista
Molto schematicamente, ecco 6 punti di vista dai quali evidenziare le differenze.
Punto di vista ontologico: non è scontato poter individuare gli elementi singoli che compongono un flusso, a differenza di quanto avviene in genere per un insieme.
Punto di vista cognitivo: il cervello tende a categorizzare gli elementi di un insieme in maniera distinta e rigida, mentre percepisce un flusso in modo più elastico e integrato.
Punto di vista del trattamento delle informazioni: un insieme si presta meglio ad un’elaborazione analitica ed estrattiva delle singole parti, mentre un flusso richiede un approccio più sistemico e una comprensione delle dinamiche relazionali.
Punto di vista del trattamento delle conoscenze: un insieme favorisce una conoscenza frammentata ed enciclopedica, mentre un flusso si adatta maggiormente ad una visione interconnessa e in divenire.
Punto di vista temporale: l’insieme dà maggiore importanza al presente e al permanere degli elementi, mentre il flusso sottolinea il divenire e il cambiamento continuo nel tempo.
Prospettiva sistemica: l’insieme evidenzia le singole componenti, il flusso ricorda che fanno parte di un sistema aperto in trasformazione.
Vediamo più in dettaglio che luce getta ciascun punto di vista sulla questione.
La differenza ontologica tra flusso ed insieme
Il punto di vista ontologico è il principale ma forse anche quello meno facile da capire.
In un insieme, anche se composto da molti elementi, questi sono comunque individuabili e distinguibili uno ad uno.
Nel flusso invece molto spesso è più difficile, se non impossibile, individuare le singole “particelle” che lo compongono, che si fondono e si mescolano in continuo movimento.
Ad esempio, si riesce ad enumerare e contare gli elementi di una scatola di spilli, mentre è praticamente impossibile contare una ad una le molecole che compongono un flusso d’acqua corrente.
Il flusso ha dunque una natura ontologicamente più “unitaria” e meno analiticamente divisibile rispetto all’insieme, dove gli elementi mantengono più nettamente la loro individualità.
Ragionare e discorrere su un flusso è quindi diverso dal ragionare e discorrere su di un insieme perché nel primo caso si prendono in considerazione le interazioni col flusso mentre nel secondo caso le interazioni considerate sono primariamente quelle con gli elementi dell’insieme, mentre le interazioni con l’insieme sono fittizie, virtuali, scorciatoie logiche da cuore con attenzione. Per esempio, nei testi che trattano di istruzione degli adolescenti non si dovrebbe mai far riferimento all’adolescente medio, perché non esiste. Orientare un’azione educativa modulandola sull’adolescente medio può rivelarsi estremamente controproducente. Un simile approccio è utile in determinate circostanze e con determinate accortezze. Vedasi per esempio i buyer personas nel mondo del marketing.
La differenza cognitiva tra insieme e flusso
Il punto di vista cognitivo tocca aspetti legati alla percezione e al funzionamento della mente.
Insieme: il nostro cervello cataloga separatamente gli oggetti sul tavolo;
Flusso: la nostra mente percepisce in modo unitario il fluire di un fiume.
In psicologia cognitiva, ci sono degli studi che hanno indagato le differenze nel modo in cui il cervello elabora concetti classificati come “insiemi” rispetto ai concetti legati ai “flussi”.
Uno degli esperti che se n’è occupato è il neuroscienziato Douglas Hofstadter, noto per la sua opera “Godel, Escher, Bach”. Ha scritto anche Fluid Concepts and Creative Analogies, 1995. Hofstadter, nei capitoli 12 e 13 della prima delle due opere citate, analizza la distinzione tra “entità discretizzate” (corrispondenti agli insiemi) e “entità fluidificate” (simili ai flussi).
Secondo Hofstadter, quando percepiamo degli oggetti separati, il cervello tende a categorizzarli rigidamente, creando confini netti. Mentre per i flussi usa schemi cognitivi più flessibili, che tengono conto delle interazioni dinamiche.
Sono stati condotti studi di neuroimaging e psicologia cognitiva che esaminano le differenze nell’attivazione cerebrale tra la percezione di insiemi e flussi. Questi studi cercano di comprendere come il cervello elabora le informazioni in situazioni in cui le caratteristiche statiche degli insiemi differiscono dalle dinamiche dei flussi. Ecco alcuni esempi di tali studi:
Elaborazione visiva: Ricerche sul campo della percezione visiva hanno esplorato come il cervello elabora insiemi di oggetti statici rispetto alla percezione di oggetti in movimento. Ad esempio, alcuni studi hanno utilizzato la risonanza magnetica funzionale o fMRI per identificare le aree cerebrali coinvolte nella percezione di insiemi di oggetti, come il riconoscimento di pattern o la lettura di scritte statiche, rispetto alla percezione di oggetti in movimento.
Attenzione selettiva: La ricerca sull’attenzione selettiva ha esplorato come il cervello gestisce l’attenzione tra insiemi di oggetti e flussi di informazioni. Gli studi hanno utilizzato l’elettro-encefalogramma o EEG, fMRI e altre tecniche per esaminare come l’attivazione cerebrale varia a seconda che i partecipanti siano esposti a stimoli statici o dinamici, e come l’attenzione è focalizzata su elementi specifici all’interno di insiemi o flussi.
Predizione e anticipazione: Alcuni studi hanno cercato di comprendere come il cervello anticipa gli eventi futuri in contesti di flussi di dati o informazioni in movimento. Questi studi hanno indagato l’attivazione cerebrale durante il processo di previsione e hanno utilizzato tecniche di imaging cerebrale per esaminare quali aree cerebrali sono coinvolte in queste attività.
La differenza tra insieme e flusso nel trattamento delle informazioni
Il computer è come un cervello elettronico: sia il computer sia il cervello svolgono funzioni cognitive ed elaborano informazioni. Le conoscenze possono essere intese come una sorta di distillato delle informazioni, il risultato del metabolismo delle informazioni, ciò che resta dopo aver analizzato le informazioni e collegate con conoscenze pregresse ed altre informazioni. Dati e fatti, senza una lettura organica, sono informazioni e non conoscenze. Vediamo, da questo punto di vista, come trattare informazioni inerenti insiemi sia diverso da trattare informazioni inerenti flussi.
Nella teoria dell’informazione ci sono concetti e modelli che rispecchiano le differenze:
Un insieme di dati è spesso strutturato e categorizzato, ad esempio in una tabella database, permettendo analisi sulle singole feature/colonne.
Un flusso di dati è tipicamente non-strutturato e dinamico, come nei sistemi complessi. Richiede approcci di data mining più flessibili (es. machine learning) per comprenderne le relazioni.
Tutto però parte dalla nostra mente. Noi elaboriamo informazione già alla fonte in modo diverso a seconda che abbiamo a che fare con insiemi o con flussi.
Insieme: analizziamo le diverse caratteristiche di ogni pianta nell’orto.
Flusso: osserviamo l’evoluzione nel tempo del traffico in città.
A livello algoritmico, cioè di progettazione delle procedure di trattamento, non stupisce la necessità di ricorrere ad approcci dedicati e ben differenziati.
Nei software, si usano database relazionali che trattano prevalentemente insiemi statici di record, mentre la data stream mining si occupa di flussi continui e di dati in divenire.
Nell’ambito delle reti di telecomunicazione, i modelli di elaborazione a pacchetti separati si adattano a insiemi discreti di informazioni, mentre le simulazioni di flussi continui riguardano sistemi di comunicazione in tempo reale.
Altro esempio è la compressione dati: gli algoritmi ad insiemi fissi sono ottimizzati su blocchi separati, mentre quelli a flussi trattano stream incomprimibili singolarmente.
Le reti neurali artificiali si collocano in una posizione intermedia tra insiemi e flussi da un punto di vista del trattamento delle informazioni.
Se non le conosci, ti basti sapere che si tratta di costrutti informatici che hanno un comportamento analogo, per alcuni aspetti, a quello delle reti di neuroni: i singoli neuroni interconnessi ricevono segnali, rappresentati da serie di numeri; elaborano i segnali in ingresso modulandoli con dei coefficienti di pesatura e producendo eventualmente un segnale in uscita se i segnali in ingresso raggiungono una certa soglia d’intensità minima. I coefficienti devono essere tarati prima di potersi aspettare un minimo di affidabilità. La taratura viene chiamata: addestramento o training. Il tipo di connessioni tra neuroni, cioè la topologia della rete, è qualificante e ne determina l’utilità a seconda dello scenario di utilizzo. Per esempio, se una rete neurale ha cortocircuiti allora si dice retroattiva ed ha capacità di auto-apprendimento.
Da un lato, molti tipi di reti neurali vengono addestrate su insiemi statici di dati, come accade nell’apprendimento supervisionato, avvicinandosi al paradigma degli insiemi.
Dall’altro lato però, una volta addestrate sono in grado di elaborare flussi continui di input, come nel deep learning online. In questo caso la loro natura si avvicina più a quella dei flussi.
Inoltre, alcune classi di reti neurali come i recurrent neural network o i reservoir computing network (per esempio la Echo State Network) sono progettate proprio per catturare effetti di memoria e dinamiche temporali, tipiche dei flussi.
Si può dunque dire che le reti neurali:
nella fase di addestramento si avvicinano agli insiemi discreti di dati;
una volta addestrate sono in grado di gestire flussi continui di informazioni in ingresso;
alcuni tipi sono più “fluidificate”, particolarmente adatte proprio a contesti di flusso.
Questa considerazione apre ad una riflessione potenzialmente interessante: caratterizzare costrutti informatici che, come le reti neurali, non sono pienamente comprensibili se li si guarda solo dal punto di vista algoritmico. Ci sono altri due esempi interessanti da questo punto di vista: gli algoritmi genetici ed una mia piccola giocosa invenzione che potremmo chiamare: “algoritmi con memoria“.
La differenza epistemologica tra insieme e flusso
Dal punto di vista epistemologico, un approccio classico al trattamento della conoscenza da parte dell’uomo è l’enciclopedismo, che si basa sulla catalogazione analitica di sapere predefinito in categorie statiche. Questo riflette il paradigma degli “insiemi” di conoscenza ed è caratterizzato da grande stabilità.
Uno studioso che, invece, si è occupato invece dell’acquisizione dinamica e relazionale della conoscenza è Gilbert Simondon, con i concetti di “individuazione” e “realtà preindividuale”. Per Simondon la conoscenza emerge da un campo di tensioni in continuo divenire. Si tratta evidentemente di un approccio più vicino al concetto di flusso.
Anche la teoria dell’apprendimento complesso di Edgar Morin considera il sapere come proprietà emergente di sistemi aperti in transizione, lontano dalla logica dell’insieme di parti.
Per entrambi, il focus è evidentemente spostato dall’individuo, dall’oggetto in sé dello studio, alla relazione.
Questi diversi approcci epistemologici hanno riflesso a livello pratico e toccano uno dei temi più in voga in questo momento: alludo all’Intelligenza Artificiale. L’epistemologia fornisce una visione critica su come rappresentare, organizzare e far “apprendere” la conoscenza alle macchine e può stimolare lo sviluppo di tecnologie cognitive più aderenti alla reale natura del sapere.
In ambito ingegneristico, l’intelligenza artificiale tradizionale implementa conoscenza formale e rigida, più simile agli insiemi. L’IA connessionista si avvicina di più ai flussi per la capacità di auto-organizzazione.
La differenza tra insieme e flusso nella prospettiva temporale
Il fattore tempo è cruciale nel distinguere tra l’approccio insiemistico e quello basato su flussi. Nel primo, il tempo è una dimensione, un aspetto. Nel secondo è parte integrante della rappresentazione, del modello mentale o informatico.
Ecco una serie di esempi che chiarisce bene la differenza:
Fisica: la meccanica classica si basa su concetti statici/insiemi, la meccanica quantistica introduce il flusso temporale di probabilità.
Biologia: la fotografia coglie l’istante, lo studio dei processi evolutivi cattura il flusso di mutamento.
Storia: le epoche sono insiemi fissi, i processi storici sono le dinamiche che le attraversano.
Psicologia: i test misurano “stati”, la terapia segue l’evoluzione nel tempo.
Cinema: i fotogrammi sono insiemi di oggetti e persone, la pellicola in movimento riproduce un flusso di eventi.
Musica: la nota è qualcosa di fissato, l’esecuzione melodica è fluire di tempo ed intensità.
Narrativa: i capitoli possono esser visti come contenitori di persone e di eventi, la trama come flusso sequenziale.
Filosofia: l’ontologia si basa su entità, il divenire tratteggiato da Eraclito è flusso.
Dove il discorso logico vacilla, la poesia ci aiuta ad oltrepassare i limiti del linguaggio, che si fanno angusti.
Leopardi ha rappresentato la natura del tempo ne “L’infinito”:
Sempre caro mi fu quest'ermo colle,
e questa siepe, che da tanta parte
dell'ultimo orizzonte il guardo esclude.
La differenza tra insieme e flusso nella prospettiva sistemica
La teoria dei sistemi complessi fornisce un solido fondamento per leggere gli ecosistemi come manifestazione concreta del paradigma del flusso. Le griglie concettuali basate sugli insiemi, viceversa, portano alla perdita di complessità in quanto riducono il tutto alla somma delle parti.
Insieme: classifichiamo le specie animali della foresta, oppure i vari organi e tessuti che compongono il corpo umano o, ancora suddividiamo una comunità in categorie come ceti, professioni e gruppi formali;
flusso: osserviamo le interdipendenze ecologiche in atto, le interazioni dinamiche e gli scambi metabolici tra tessuti ed organi, i processi di identificazione nelle comunità e le evoluzioni delle reti di relazioni sociali.
Dal punto di vista della teoria dei sistemi, gli ecosistemi naturali sono considerati prototipi di sistemi aperti e complessi in continua evoluzione.
Uno studio pionieristico in questo senso è stato condotto da Eugene Odum negli anni ’50, introducendo il concetto di successioni ecologiche per descrivere il fluire dinamico delle interazioni all’interno degli ecosistemi nel tempo.
Successivi lavori di Prigogine mostrano come i sistemi naturali abbiano proprietà emergenti a livello macroscopico che non possono essere ridotte alla somma delle singole parti.
Gli ecosistemi dunque si prestano come esempio calzante di sistema profondamente integrato: sebbene possano essere analizzati gli elementi costitutivi in un dato istante, questo non è sufficiente per comprenderli nell’insieme.
Al contrario, la classificazione delinea categorie statiche di elementi, riflesso dell’approccio tipico dell’insieme. Questo va bene quando abbiamo il pieno controllo del sistema osservato, i legami causali sono identificabili e le interazioni sono misurabili. È come dire che abbiamo piena conoscenza, istante per istante, di ciascuno degli elementi dell’insieme corrispondente al sistema in esame. Avere un metodo di enumerazione consente di gestire, di redigere check-list, di calcolare in modo ottimizzato, di contabilizzare…
Dal punto di vista sistemico, è possibile comunque concepire un approccio basato sugli insiemi, che metta in evidenza:
la classificazione delle componenti di un sistema in categorie distinte e separate;
l’analisi delle proprietà e delle funzioni di ciascuna componente considerata individualmente;
la decomposizione gerarchica del sistema in sottosistemi e parti sempre più elementari;
la comprensione del sistema attraverso lo studio analitico delle interazioni fra gli insiemi costitutivi.
Dunque, focalizzando un aspetto alla volta, un approccio analitico basato sull’insiemistica può portare ad un’ampia conoscenza del sistema studiato. Il suo limite è di lasciare implicita la conoscenza profonda, di non considerare correlazioni e legami causali inespressi. Il rischio è quello di illudersi di avere il controllo, fornendo spiegazioni, a volte persino auto-coerenti, da singoli punti di vista, come se ciascuno di essi fosse l’unico possibile e contenesse tutte le certezze necessarie.
La scienza ci ha insegnato che esistono entità intrinsecamente probabilistiche e sistemi che non possiamo descrivere compiutamente in modo auto-coerente, come sancito dal teorema di incompletezza di Gödel. Dobbiamo accettare che in ogni sistema complesso c’è un incomprimibile quanto di mistero…
Fantamatematica
L’edificio matematico si fonda sulla teoria assiomatica di Zermelo Fraenkel. Si tratta di 7 – 8 assiomi… poca roba… Eppure reggono un peso enorme: algebra, geometria, topologia, teoria dei numeri, teoria delle probabilità, calcolo, combinatoria e analisi.
La teoria degli insiemi può essere vista come un caso particolare di una teoria matematica più generale basata sui flussi. Alcuni punti che avvalorano questa visione: i flussi…
…permettono di cogliere aspetti qualitativi e non solo quantitativi dei sistemi;
…consentono di formulare concetti matematici anche per realtà non discretizzabili come curve e campi;
…risultano più aderenti a sistemi dinamici e stocastici della fisica e altro.
Il lavoro da farsi è considerevole: andrebbero generalizzati concetti come funzione, limite, derivata da oggetti fissi a flussi continui.
Questo però potrebbe aprire nuove prospettive per estendere ulteriormente la matematizzazione a sistemi non coerenti con l’ottica insiemistica tradizionale.
Anche la Scienza dell’informazione trarrebbe giovamento dall’uso dei flussi. Le fondamenta della teoria classica, sviluppata da Shannon, sono insiemistiche ma tale teoria incorpora già nelle origini alcuni aspetti da flussi. Shannon stesso si rese conto che nella comunicazione reale i segnali sono flussi continui nel tempo e nello spazio. Introdusse quindi nozioni di derivate, integrali e variabili casuali continue. Le evoluzioni più recenti enfatizzano ulteriormente questa componente dinamica e continua. Teorie successive, come quella dell’informazione computazionale e dell’informazione quantistica, hanno ulteriormente spostato l’attenzione sui flussi. In ingegneria delle telecomunicazioni si usano sia modelli discreti che continui a seconda dell’applicazione.
Potrebbe essere fertile ripensare anche la logica formale proprio a partire dalla nozione più primaria di flusso, invece che da concetti prettamente insiemistici come variabili e valori di verità. Il “filo logico” di un ragionamento è appunto un flusso sequenziale di passaggi. La semantica denotazionale in logica si fonda sul concetto di flusso di informazioni in una dimostrazione. Alcuni concetti logico-formali potrebbero essere riconcettualizzati in termini di: flussi di informazioni, transizioni semantiche, evoluzioni temporali, dinamiche causali. Questo potrebbe aprire a una “logicizzazione” di concetti propri delle scienze dinamiche. Seppur complesso, può essere uno stimolo per ripensare in modo più aderente la natura “scorrevole” anche del pensiero logico-deduttivo.
Concludendo…
Sappiamo che la matematica attuale ha qualche problemino con la teoria della misura (v. paradosso di Banach-Tarski, dimostrato un secolo fa). Mettiamo nel calderone anche la misura della complessità algoritmica e quindi l’annosa questione della congettura “P=NP?”, risalente a mezzo secolo fa. Misurare ed individuare è proprio ciò che nel mondo degli insiemi è semplificato rispetto al mondo dei flussi: come abbiamo visto, negli insiemi si può sempre individuare ogni singolo elemento.
Sappiamo anche che la fisica e l’informatica trattano sostanzialmente flussi (materia, energia, informazione) e che il linguaggio matematico è basato sugli insiemi, non sui flussi. Questo spiegherebbe perché ci sono oggettive difficoltà, in fisica, a descrivere alcuni fenomeni – e se il dualismo onda-particella si risolvesse introducendo il concetto di flusso?
Abbiamo insomma alcuni indizi: ripartire dai flussi può rivelarsi un’opportunità. Occorre accettare l’idea di immergersi nella complessità – e matematizzarne il paradigma! – ed abbandonare eroicamente le tranquille sponde del semplice e del complicato.
Una ricetta di cucina, una ricetta chimica, una distinta base industriale, un programma per computer… sono tutte procedure e tutte vengono espresse sotto forma di elenco di istruzioni da eseguire. Gli informatici un tempo lo chiamavano: “listato”. Uno mi può obiettare che nella distinta base ci sono sia voci indicanti lavorazioni sia voci indicanti materiale. A ben vedere, anche queste ultime indicano indirettamente un’azione. Se la distinta base di produzione di una penna indica un cappuccio, quando consegno l’ordine di produzione al reparto, il personale sa che dovrà prelevare il cappuccio e disporlo nella confezione della penna. Istruzioni.
Accendiamo l’immaginazione su una ricetta o una distinta base o un programma per computer. Sogniamo che il listato fluttui nello spazio 3D ed introduciamo dei legami tra una riga e la sua successiva in modo da non perdere il filo quando il listato viene eseguito.
Infine aggiungiamo un’istruzione qualunque nello spazio circostante il nostro listato e colleghiamolo ad una delle istruzioni esistenti. Distinguiamo il nuovo legame dagli altri usando un colore diverso.
Se conveniamo di preferire i legami di un certo colore e di trascurare gli altri, la modifica che abbiamo apportato non altera il flusso esecutivo del listato.
Il colore può essere tradotto anche come peso, importanza relativa nell’esecuzione del flusso operativo. Generalizzando, possiamo avere non più solo una sequenza di esecuzione delle istruzioni corrispondente a quella costituita dal listato: si possono predisporre vari percorsi ed anche criteri per tarare l’importanza relativa delle connessioni, cioè attuare un apprendimento.
di primo acchito, puoi restare stupito o perplesso.
Significa che “1” e “0,999…” rappresentano la stessa quantità.
Siti web, video, libri… le diverse spiegazioni e dimostrazioni di questa uguaglianza, che è un fatto matematicamente accettato, hanno dato luogo a numerose riflessioni e discussioni. In comune, le varie dimostrazioni hanno il ricorso ad un tipo di passaggio matematico detto: “passaggio al limite”. È piuttosto intuitivo ma ha implicazioni non banali e, qualche volta, persino contro-intuitive. Se non lo conosci già, provo a spiegartelo qui di seguito.
Ecco un esempio basato sulle fette di torta. Supponiamo di avere a disposizione una certa quantità unitaria, per esempio una torta, e di poterla dividere in tante parti uguali quante ne vogliamo. Se divido per 2, otterrò due belle fettone grandi. Se divido per 3, ciascuna fetta sarà molto più piccola, se divido per 4 sarà ancora più piccola… Se divido per 1000, ogni fetta sarà probabilmente trasparente… Dunque se n è il numero di parti uguali in cui divido la torta, la dimensione della fetta, pari a 1/n, tende a diventare sempre più piccola, sempre più piccola…
n
1/n
rappr. decim.
1
1
1,000…
2
½
0,5000…
3
1/3
0,333…
4
1/4
0,25000…
…
…
…
100
1/100
0,01000…
…
…
…
100.000
1/100.000
0,000001000…
…
…
…
∞
1/∞
0,000…
Se potessi scrivere all’infinito e completare la tabella, riuscirei a scrivere anche l’ultima riga… ma non posso!
Possiamo immaginare che, al limite, quando n tende verso l’infinitamente grande, 1/n vale quasi 0. Per riassumere questa situazione possiamo dire che: “se n tende all’infinitamente grande, il limite di 1/n è 0″.
\lim_{n\rightarrow\infty}\frac{1}{n}=0
Torniamo alla nostra sorprendente uguaglianza tra 1 e 0,999… Come dicevo, in un modo o nell’altro, risulta che se si potessero scrivere tutte le infinite cifre del membro destro dell’uguaglianza (“0,999…”) allora si potrebbe descrivere compiutamente una quantità identica a quella espressa del membro sinistro con il solo simbolo “1”.
Sinceramente, faccio una gran fatica ad accettare che un ragionamento matematico si fondi su qualcosa che è impossibile. Se condividi, accompagnami in un brevissimo viaggio verso una maggiore profondità nell’oceano matematico.
Sul fondale dell’oceano troviamo gli schemi mentali comuni alla maggior parte degli esseri umani in quanto indotti da fattori fisiologici.
Uno di questi schemi, secondo me, è quello dell’errore controllato. La nostra mente è molto brava ad astrarre eliminando particolari inessenziali e riempiendo vuoti con contenuti plausibili. Praticamente ogni comunicazione, in qualunque forma, anche quella del linguaggio non verbale, sfrutta l’uso di percezioni sensoriali per trasmettere pensieri in modo indiretto, attraverso segni e simboli, compreso il linguaggio del corpo. Per esempio, la lettura della parola: “albero” evoca nella tua mente la tua idea di albero, che si è formata nella tua memoria per esperienza. Ciascuno degli alberi che hai visto assomiglia alla tua idea di albero. La nostra memoria fissa solo una piccola parte del dato sensoriale, sicché gli errori sono già alla fonte. Si tratta sempre e comunque di errori sotto controllo, cose che possiamo gestire. Se così non fosse, o meglio, quando occasionalmente comprendi male o apprendi in modo errato, possono accadere incidenti ed esperienze indesiderate o dolorose perché progetti comportamenti basandoti su modelli predittivi non aderenti alla realtà, non veritieri.
Propongo di rifare il ragionamento riguardante “1=0,999…” basandoci sull’idea di errore controllato anziché su quella di passaggio al limite. L’idea sottostante è che il passaggio al limite è reso paradossalmente possibile da una nostra limitazione: la capacità di discriminare tra due quantità indicate da altrettante scritture non è infinita, ha sempre e comunque una certa precisione. Oltre una certa precisione non arriviamo, sicché due scritture possono risultare confondibili, nel senso che tendiamo ad identificare le quantità o gli schemi da essi indicati, anche se non sono in tutto e per tutto identiche.
È vero o falso che “1” e “0,999…” rappresentano la stessa quantità? Lavorando sulla rappresentazione decimale, mi accorgo che qualunque metodo di controllo, qualunque procedura per misurare la differenza tra la quantità indicata da “1” e quella indicata da “0,999…” è destinato ad essere inconcludente o meglio ciclico, ripetitivo, rinviando ad ordini di grandezza sempre più bassi. Prima o poi però mi devo fermare, non c’è niente da fare: la mia natura è finita, qualunque tecnologia è basata su materia ed energia disponibili in quantità finita. Se non altro, mi fermerò perché non reggo la noia oltre un certo limite o perché intuisco che non potrà mai cambiare nulla, che le mie azioni mentali non potranno far altro che ripetersi.
Rilevare che una procedura è ciclica è un’atto mentale fattibilissimo. Non sempre è facile: si pensi ad un numero decimale periodico con un periodo lungo mille cifre. La procedura che ci consente di calcolare la prossima cifra dello sviluppo decimale è ciclica ma accorgersene potrebbe risultare molto difficile. Nel nostro caso non è così: bastano pochi passaggi per accorgersene. Bastano pochi passaggi e ci accorgiamo che la produzione della prossima cifra di 0,999… comporta l’esecuzione di passi identici a quelli precedenti, salvo scendere di ordine di grandezza. Comunque, se la nostra precisione di calcolo è prefissata, non serve neppure l’abilità di rilevare ciclicità: basta calcolare una quantità di cifre decimali pari a quelle che la nostra precisione ci consente di gestire. Ad un certo punto, la differenza tra 1 e 0,999… sarà inferiore alla soglia di precisione.
Per chi conosce il principio d’induzione: ebbene sì, abbiamo una procedura (che si può scrivere in funzione della nostra soglia di precisione) che arriva sempre a costruire uno sviluppo decimale di 0,999… quantitativamente equivalente a 1 in relazione alla nostra capacita di discriminare tra quantità, riferita a quante cifre decimali riusciamo a gestire.
Possiamo allora concludere che “1” e “0,999…” sono confondibili, nel senso che indicano la stessa quantità, salvo un eventuale errore talmente piccolo da poter essere trascurato.
Attenzione! Non siamo costretti ad ammettere che “1” e “0,999…” siano la stessa scrittura o che siano due scritture intercambiabili, ma solo che indichino sostanzialmente la stessa quantità, sicché sono intercambiabili nei ragionamenti in cui non conta la forma ma la “sostanza”. Possiamo mantenere distinte le due relazioni di uguaglianza tra scritture “=” e di confondibilità “≈”, evitando di dare per scontato – potrebbe essere una forzatura – che siano la stessa cosa. Ammettiamo solamente, almeno per ora, che due scritture formalmente e computazionalmente diverse come “1” e “0,999….” siano confondibili nel senso che esprimono sostanzialmente la stessa quantità. Scriviamo dunque così per indicare la confondibilità:
1 ≈ 0,999…
Vorrei ora proporre una situazione un po’ particolare che ci aiuti a generalizzare l’idea di confondibilità e ad apprezzare la distinzione tra essa e l’uguaglianza algebrica, quella indicata con: “=”, in modo più generale.
Immaginiamo ora un nuovo tipo di numeri, rappresentabili in base 10 con un numero finito di cifre decimali, le cui ultime cifre decimali fluttuano nel tempo in modo casuale.
Per prima cosa, notiamo che le scritture indicanti quantità significano davvero qualcosa se c’è qualcuno che le legge e le interpreta. Ogni lettura è un atto concreto, un evento a se stante, irripetibile perché la nostra esistenza ha natura lineare. Due letture possono essere molto simili ma comunque c’è almeno una differenza: l’istante in cui vengono fatte o la persona che legge. In generale, non è garantito che ogni lettura dia sempre lo stesso identico effetto, che la scrittura sia interpretata sempre perfettamente allo stesso modo.
In altri termini, non è così assurdo concepire una scrittura indicante quantità che, se viene letta più volte, fornisca sempre le stesse prime cifre ma, sotto un certo ordine di grandezza, le restanti cifre possano variare potenzialmente ad ogni lettura in modo imprevedibile per chi le legge.
Non serve assumere sostanze psicotrope. Per esempio, si possono far scrivere le ultime cifre con una lente potente da un amico, per poi leggere le stesse cifre senza l’ausilio di nessuna lente. Quando faccio l’esame dall’oculista o dall’ottico succede qualcosa del genere. Ogni volta che provo a leggere una scrittura troppo piccola, tento di indovinare, interpretando ciò che percepisco in modo fluttuante.
Paziente: dottore, vedo una F ma forse è una R. Dottore: Sicuro? Non potrebbe essere una E o una B?
In informatica, non è per nulla difficile immaginare una situazione del genere, anzi è un problema in cui spesso si incappa. Capita per esempio di usare programmi per dati contabili con precisione di due cifre dopo la virgola, per poi trovarsi in difficoltà quando vengono coinvolti beni che si usano in grande quantità, per cui basta una fluttuazione di cifre decimali di ordine molto basso per causare effetti apprezzabili.
Ecco perché, per esempio, i prezzi dei combustibili alla pompa vengono indicati con 3 o 4 cifre dopo la virgola, anche se nella valuta corrente si trattano solo le prime due.
Recepire il concetto di confondibilità, di errore sotto controllo, di precisione limitata è, da un lato, matematicamente… spaventoso! Però apre un mondo di possibilità. Per esempio, fu proprio in conseguenza alla limitatezza nella precisione dei calcoli meteorologici che Edward Lorenz diede vita alla teoria matematica del caos. La riflessione sarebbe molto ampia, limitiamoci qui ad una situazione più specifica ma comunque significativa.
Attrattore strano di Lorenz. Il grafico rappresenta l’evoluzione di un sistema. Lo spazio geometrico della rappresentazione è chiamato “spazio delle fasi” ed ogni punto rappresenta una configurazione del sistema.
Tornando a questi nostri strani numeri con le ultime cifre fluttuanti, oggetto di questa piccola riflessione, diamo loro dignità attribuendo loro un nome, quello di “numeri fluttuanti” e chiediamoci se e come possiamo trattarli. Abbiamo già visto alcuni modi per crearli e per leggerli. Come possiamo farci dei calcoli? Quali attenzioni avere per manipolarli “rispettosamente”, senza perdere alcuna informazione e quindi preservare il più possibile il livello di precisione? Per esempio, come fare la somma tra due numeri fluttuanti?
Rivediamo più in dettaglio come possiamo interagire con un numero fluttuante. Ad ogni accesso in lettura al numero fluttuante otterremo come esito una sequenza di cifre che rappresenta un numero decimale in base 10 con una quantità di cifre superiore alla nostra capacità di distinguere tra quantità con simili rappresentazioni. Ciascuna delle scritture ottenute indica sostanzialmente sempre la stessa quantità. Le varie scritture, considerate nell’insieme, possono costituire una sequenza di interazioni in coinvolgenti un unico osservatore o possono essere una collezione di interazioni avvenute in parallelo coinvolgendo più di un osservatore. Questo, ai nostri fini, non importa. Ciò che conta è che possiamo sfruttare il lavoro già fatto dai matematici relativamente al calcolo numerico con approssimazione.
Per esempio, consideriamo l’algoritmo di Kahan detto anche della sommatoria compensata. Grazie ad esso, l’errore peggiore possibile è indipendente dal numero degli addendi, dunque un gran numero di valori possono essere sommati con un errore che dipende solo dalla precisione della rappresentazione in virgola mobile.
All’economia di questa nostra breve immersione nelle profondità matematiche, non serve approfondire la procedura di calcolo, ci basta sapere che si può fare. Idem per altre operazioni aritmetiche. Ciò che conta è sapere che i numeri fluttuanti sono trattabili.
Due scritture di numeri fluttuanti possono essere uguali o no, confondibili o no. Se sono confondibili ma non uguali, il loro trattamento aritmetico è fattibile, come detto, ma fa emergere alcune criticità.
Un numero fluttuante è un individuo o un insieme?
Cosa succede alla precisione, cioè alla quantità di informazione, della scrittura risultante a seguito di un computo (o calcolo, elaborazione aritmetica) su numeri fluttuanti? Come distinguere tra metodi che preservano la precisione da quelli che la riducono?
Durante l’immersione abbiamo assistito all’entrata in scena del soggetto pensante o del processore. Come si sviluppa la relazione tra processore e numeri fluttuanti? In che modo questo è correlato alla precisione?
Queste domande saranno argomento di altri post. La conclusione è che, toccato il fondale, possiamo iniziare a scavare!
Utilizziamo i cooky nel nostro sito Web per fornirti la migliore esperienza di navigazione registrando le tue preferenze visita dopo visita. Selezionando "Accetto", acconsenti l'uso di tutti i cooky.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.
Gestisci Consenso
Per fornire le migliori esperienze, utilizziamo tecnologie come i cookie per memorizzare e/o accedere alle informazioni del dispositivo. Il consenso a queste tecnologie ci permetterà di elaborare dati come il comportamento di navigazione o ID unici su questo sito. Non acconsentire o ritirare il consenso può influire negativamente su alcune caratteristiche e funzioni.
Funzionale
Sempre attivo
L'archiviazione tecnica o l'accesso sono strettamente necessari al fine legittimo di consentire l'uso di un servizio specifico esplicitamente richiesto dall'abbonato o dall'utente, o al solo scopo di effettuare la trasmissione di una comunicazione su una rete di comunicazione elettronica.
Preferenze
L'archiviazione tecnica o l'accesso sono necessari per lo scopo legittimo di memorizzare le preferenze che non sono richieste dall'abbonato o dall'utente.
Statistiche
L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici.L'archiviazione tecnica o l'accesso che viene utilizzato esclusivamente per scopi statistici anonimi. Senza un mandato di comparizione, una conformità volontaria da parte del vostro Fornitore di Servizi Internet, o ulteriori registrazioni da parte di terzi, le informazioni memorizzate o recuperate per questo scopo da sole non possono di solito essere utilizzate per l'identificazione.
Marketing
L'archiviazione tecnica o l'accesso sono necessari per creare profili di utenti per inviare pubblicità, o per tracciare l'utente su un sito web o su diversi siti web per scopi di marketing simili.