• Intelligenza Artificiale per MPMI del Veneto

    Intelligenza Artificiale per MPMI del Veneto

    [Tempo di lettura: 5 minuti]

    Le micro, piccole e medie aziende del Veneto possono trarre beneficio dall’Intelligenza Artificiale? Come?

    Per dare qualche spunto utile ad orientarsi, è utile prima prendere in considerazione qualche numero, qualche dato statistico. Inoltre, è bene chiarire a quali tecnologie ci riferiamo. Fatti questi due passaggi, potremo calarci nell’argomento adeguatamente attrezzati.

    Qualche dato sul tessuto imprenditoriale del Veneto

    Il Veneto conta numerose micro/piccole/medie imprese. Cominciamo col dare il nome alle cose. La categoria delle microimprese è caratterizzata dal fatto che comprende dai 3 ai 9 addetti. Le piccole imprese, invece, ne contano dai 10 ai 49 e le medie dai 50 ai 249. Nel canale dai 250 addetti in su, l’ISTAT colloca invece le grandi imprese. Nel Rapporto Statistico 2020, il Veneto risultava essere la quarta regione in Italia per numero di imprese attive (104.096 nel 2019), dopo Lombardia, Campania e Lazio, con una media di 4,3 addetti per impresa. Le imprese attive fino a 250 addetti e con un giro d’affari inferiore a 50 milioni di euro, impiegano il 77,2% degli addetti e rappresentano il 99,8% delle imprese attive dell’industria e dei servizi. Nel 2018, si trattava per il 77,7% delle aziende Venete con almeno 3 addetti aziende erano controllate da persona fisica o famiglia.

    In conclusione, il Veneto è caratterizzato da un elevato numero di aziende microscopiche o piccole, prevalentemente a conduzione personale o familiare.

    Qualche precisazione sul concetto di Intelligenza Artificiale

    L’intelligenza artificiale è una sotto-disciplina dell’informatica, focalizzata sul trattamento intelligenze dei dati. La dicitura “intelligenza artificiale” viene però utilizzata solitamente per indicare il più recente sviluppo informatico di ampia diffusione nel mercato. Attualmente, si tratta dell’elaborazione del linguaggio naturale e della generazione automatica di testi, immagini e suoni. Combinando queste tecniche con ampie banche dati o raccolte di testi ed aggiungendo algoritmica q.b. si può ottenere l’estrazione e la generazione di nuova conoscenza.

    Per esempio, se connettiamo un costrutto di analisi del linguaggio naturale con il servizio di fatturazione elettronica, potremmo ottenere una proposta di contabilizzazione delle fatture passive. Ciò significa, che il costrutto proporrebbe, per ciascuna riga della fattura, un conto da associare e, conseguentemente, i movimenti contabili. Al contabile resta un’attività di controllo, correzione e gestione dei casi particolari.

    Vorrei sottolineare che non penso che il costrutto possa effettuare direttamente la contabilizzazione senza la supervisione di un essere umano. A differenza degli algoritmi, i costrutti basati su criteri statistici forniscono sempre risultati incerti. Abbattere il rischio di un’errata contabilizzazione val bene il poco lavoro umano necessario per il controllo.

    Esempi simili si possono facilmente immaginare nella logistica degli acquisti, delle spedizioni e delle vendite. Disporre di modelli predittivi e di ottimizzatori consente di focalizzare il lavoro umano sul controllo e sugli aspetti tattici e strategici, riducendo l’operatività con poco valore aggiunto.

    Cosa succede se una MPMI adotta strumenti di IA?

    Nell’arco della mia vita, l’informatica nelle MPMI è passata dal non essere contemplata ad essere irrinunciabile vari processi aziendali, come minimo quello amministrativo. Negli altri, comunque, rende l’impresa competitiva quand’è applicabile. Questo vale in particolare per l’intelligenza artificiale. Dunque si tratta di esercitare la propria creatività.

    Ecco alcune aree in cui le PMI potrebbero sfruttare queste tecnologie.

    1. Analisi del Linguaggio Naturale (NLP):
      • Customer Support: realizzare chatbot o sistemi di assistenza automatica basati su NLP può migliorare l’efficienza nel fornire supporto ai clienti, rispondendo a domande comuni o risolvendo problemi di routine. Se anche l’Intelligenza artificiale viene usata solo a supporto degli addetti all’assistenza, sappiamo che l’operatore soddisfatto trasmette il proprio sentire al cliente, creando una relazione virtuosa.
      • Analisi dei Feedback: utilizzare l’NLP per analizzare recensioni dei clienti, feedback sui social media o e-mail può fornire informazioni preziose sulla percezione del marchio e identificare aree di miglioramento.
    2. Generazione Automatica di Contenuti:
      • Marketing: creare automaticamente contenuti per i social media, blog o newsletter può semplificare il processo di marketing, garantendo una presenza online costante.
      • Report aziendali: automatizzare la generazione di report interni può risparmiare tempo e ridurre la possibilità di errori umani.
    3. Accesso a Banche Dati e Fonti Dati:
      • Ricerca di Mercato: utilizzare l’IA per analizzare grandi quantità di dati provenienti da fonti diverse può fornire informazioni dettagliate sul mercato, i concorrenti e le tendenze di settore.
      • Gestione dell’ERP: ottimizzare processi come la gestione delle scorte, la previsione della domanda e la pianificazione della produzione.
    4. Informazioni Commerciali:
      • Analisi dei Dati Aziendali: aiutare ad identificare opportunità di crescita, prevedere la domanda dei clienti e ottimizzare le operazioni.
      • Personalizzazione dei Prodotti e Servizi: basandosi sui dati dei clienti, l’IA può aiutare le MPMI a personalizzare prodotti o servizi in modo più efficace, migliorando l’esperienza complessiva del cliente.

    L’adozione di queste tecnologie richiede una valutazione attenta delle esigenze specifiche dell’azienda, delle risorse disponibili e delle sfide potenziali. C’è poi la questione che a noi veneti piace poco affrontare: il personale va formato e riqualificato. Tuttavia, se implementate correttamente, le tecnologie legate all’IA possono contribuire significativamente all’efficienza operativa, all’innovazione e alla competitività delle PMI venete. Non è un treno che ci si possa permettere di perdere.

    Le tempistiche sono cruciali. Sappiamo infatti che le tecniche di intelligenza artificiale qui citate sono già ampiamente consolidate da decenni in ambito accademico ma solo di recente sono state immesse sul mercato. Dunque, c’è la possibilità di acquisire gradualmente questi preziosi strumenti, approfittando di sistemare anche altre magagne che inevitabilmente emergeranno lungo il cammino di trasformazione digitale.

    Si parte da un’idea o caso d’uso con reale necessità, la cui prima fase già ripaga l’investimento. Il risultato si reinveste nella fase successiva, di fatto auto finanziando il progetto. Basta iniziare con piccole cose, ottenere risultati e procedere.

    È cruciale è credere nell’obiettivo, controllare gli sviluppi passo passo, coinvolgendo tutti gli attori: clienti, personale interno e finanziatori.

  • Supporto informatico per un laboratorio di chimica computazionale

    Supporto informatico per un laboratorio di chimica computazionale

    [Tempo di lettura: < 1 minuto]

    La chimica computazionale è affascinante… ed è un bel business! In pratica, con le risorse informatiche è possibile simulare il comportamento di sostanze chimiche prima di averle sintetizzate. Per esempio, se si desidera modificare il comportamento di un farmaco in modo che reagisca con determinate sostanze in un certo modo, una casa farmaceutica può chiedere ad un laboratorio di calcolo specializzato di progettare la molecola.

    Naturalmente, la potenza di calcolo necessaria per la simulazione comporta dotazione hardware di alto livello. Non è da stupirsi se, non solo i dati, ma anche la struttura informatica in sé suscitano l’interesse di chi fa il mining di criptovalute. Se poi ci aggiungiamo l’ambientazione universitaria, ecco che si spiega perché la messa in sicurezza informatica del laboratorio è importante.

    Nel caso specifico, il laboratorio è interamente basato su sistemi operativi Linux, situazione piuttosto frequente in ambito universitario, analogo a quello in cui Linus Torvald gli diede i natali.

    La collaborazione ha toccato vari aspetti del laboratorio:

    • gestione centralizzata degli utenti;
    • firewalling;
    • gestione dello storage;
    • accesso in sicurezza da remoto alle risorse di calcolo del laboratorio;
    • aggiornamento hardware e software.
  • eMarketplace manager

    eMarketplace manager

    [Tempo di lettura: < 1 minuto]

    Un eMarketplace è un luogo virtuale, o non-luogo, d’incontro tra domanda ed offerta di beni. Molte aziende commerciali sono rimaste focalizzate sui processi logistici fisici e non hanno ritenuto vantaggioso aprire i canali on line.

    Salesbridge si propone come intermediario tra fisico e virtuale, portando negli eMarketplace più famosi (come Amazon ed eBay) i cataloghi di queste aziende.

    L’iniziativa è nuova fiammante e c’è molto da fare. Con OTS Sistemi stiamo allestendo il modello dati, le interfacce utente di gestione etc. tutto ciò che serve per tenere sotto controllo i sistemi di automazione di vendita.

    È davvero emozionante attivare comandi che, in pochi istanti, mettono o tolgono dai canali di vendita migliaia e migliaia di articoli!

  • Web to rendering

    Web to rendering

    [Tempo di lettura: < 1 minuto]

    Se non sai cos’è uno sleeve nel mondo del confezionamento (packaging) te lo dico io: si tratta di un’etichetta di materiale plastico termoretraibile che si adatta all’involucro (es. lattine, bottiglie) e lo riveste. Tra le varie caratteristiche, c’è un vantaggio pubblicitario: mette a disposizione un’ampia superficie su cui poter esporre testi e grafica.

    Ad oggi esistono persino stampanti digitali per sleeve, per cui è possibile produrre anche basse tirature ed arrivare a personalizzare sleeve per eventi, occasioni speciali ed organizzazioni.

    Con PNG, abbiamo messo a disposizione di PackSleeve uno strumento che consente di produrre decine e decine di immagini fotorealistiche di contenitori sui quali è stato applicato uno sleeve con grafica a tema. È una declinazione della tecnologia “web-to-rendering”, analoga alla più famosa “web-to-print”. Ebbene sì, posso dirlo non senza una punta d’orgoglio: noi di PNG l’abbiamo inventata.

  • Empori Solidali

    Empori Solidali

    [Tempo di lettura: < 1 minuto]

    La solidarietà non può essere buonismo e, raggiunta una certa soglia di complessità, ha bisogno di controllo e coordinamento.

    Un emporio solidale raccoglie viveri ed altri beni di prima necessità e li distribuisce ad indigenti sulla base delle necessità di cui sono portatori, valutate da soggetti autorevoli come la Caritas o l’Associazione San Vincenzo, spesso in collaborazione con il Comune o con l’Azienda Sanitaria.

    Per una corretta ed equa distribuzione dei beni di prima necessità, quando gli utenti sono alcune decine, non si può non ricorrere ad un software che aiuti a tener traccia del comportamento economico di ciascuno presso l’Emporio.

    Ma c’è un’altra questione: stiamo parlando di organizzazioni basate eminentemente sul volontariato, dunque su disponibilità frammentarie e discontinue. Di nuovo, il software aiuta a mantenere la coerenza del servizio e la conformità rispetto alle procedure definite.

    Per completare il quadro occorre tener presente la necessità di rendicontazione. L’Emporio deve riferire ad alcuni importanti enti “sponsor”, in modo da giustificare l’attività condotta.

    Con Connexio, tutte queste questioni sono state valutate nel dettaglio e codificate.

  • Azioni commerciali territoriali: visite commerciali e distribuzione volantini

    Azioni commerciali territoriali: visite commerciali e distribuzione volantini

    [Tempo di lettura: < 1 minuto]

    Cos’hanno in comune il caso di un’azienda che produce pesce, con fatturato di qualche decina di milioni di Euro, e quello di un’azienda locale con dimensione inferiore di un’ordine di grandezza che si occupa di distribuzione di volantini? Per entrambe, il processo “produttivo” principale consiste nel presidiare il territorio, pianificando visite commerciali ed imparando da ogni campagna, da ogni visita.

    Bastano poche persone per creare una situazione sfuggente. In un caso, ciascun cliente genera numerosi dati, nell’altro il volume dei dati è determinato dal numero di persone che si occupano della distribuzione giorno per giorno incontrando gli imprevisti più disparati.

    In un caso, ciascun commerciale deve seguire nel tempo una strategia intelligente e ben coordinata. Nell’altro, è importante essere molto reattivi e prendere decisioni rapide per far fronte agli ostacoli che via via si presentano.

    In entrambi i casi, Connexio è stata la soluzione, adattandolo sartorialmente ad entrambi i trattamenti di dati.

  • Informatica per gruppi di consulenti

    Informatica per gruppi di consulenti

    [Tempo di lettura: 2 minuti]

    Hanno molto in comune le reti di consulenti, indipendentemente dalle dimensioni e dall’area geografica di riferimento.

    Ho seguito per qualche anno i partner di un fondo d’investimento d’Oltralpe, sto seguendo da molti anni un’organizzazione ad “azienda virtuale” per aziende italiane di media grandezza, specialmente nel settore dell’arredamento, do supporto alla mia stessa rete di collaborazione.

    Ah, se non sai cos’è un’azienda virtuale ecco un breve accenno: è un’organizzazione che potenzialmente è costituita da un gran numero di risorse ma che si manifesta solo con alcune di esse progetto per progetto, a seconda delle necessità. Dunque, è come se ci fosse un’azienda di volta in volta diversa.

    Tornando all’argomento principale, in tutti i casi il cardine è la diade formata dal programma di comunicazione e condivisione e dal programma di amministrazione. Questo non è molto diverso dalle solite aziende. La problematica specifica è l’estremizzazione di alcuni aspetti:

    • il personale non è legato ad una sede fisica, si sposta, ma deve comunque poter accedere ai trattamenti di dati in base alle proprie aree di competenza;
    • siamo nel settore detto dei KIBS, cioè dei Knowledge Intensive Business Services: il prodotto di questi operatori è costituito da asset informativi e conoscitivi condivisi con i clienti;
    • a seconda della forma organizzativa, i legami tra singolo professionista e resto della rete possono essere più o meno consolidati e duraturi ma in ogni caso ci dev’essere una cabina di regia che poi risponde davanti alla legge, quindi i rischi legali vanno gestiti bene;
    • possono comparire, anche temporaneamente, figure che interferiscono con il processo evolutivo condiviso con la cabina di regia;
    • tutte le forme di comunicazione esprimono unitarietà attraverso un livello di coordinamento elevato in rapporto alla debolezza del legame contrattuale con la cabina di regia, ricorrendo, per esempio, al VoIP ed al Centralino Telefonico Virtuale.

    Nei vari casi, mi sono trovato ora a potenziare il lato amministrativo ed ora quello di comunicazione e condivisione. Ho notato che, in ogni caso, la gestione dei progetti e delle commesse tende a restare frammentata, con dispersioni anche notevoli di informazione e rischio di amnesia aziendale.

    Insieme a Maurizio, ho codificato in modo unitario in Connexio i vari “pezzi” di soluzione che sono riuscito via via a mettere in campo in modo anche decentemente integrato.

    Faccio un esempio: le schede anagrafiche di clienti, fornitori, collaboratori etc. Nelle reti di collaborazione, è frequentissima la situazione ibrida in cui lo stesso soggetto assume più di uno di questi ruoli. Come evitare di ri-digitare la stessa scheda e tutti i successivi aggiornamenti sia nel programma di comunicazione e condivisione sia in quello di gestione amministrativa?

    Due sono le strade: o si crea un connettore tra i due programmi o… si usa Connexio, l’unico sistema che conosco che comprende entrambi i tipi di trattamento, lasciando fuori solo ciò che riguarda strettamente i rapporti col commercialista.

    Se anche tu operi in una rete di collaborazione, sappi che è molto probabile che io possa essere d’aiuto per le questioni inerenti il trattamento di informazioni e conoscenze.

  • Trattamento partecipativo di informazioni e conoscenze nelle comunità

    Trattamento partecipativo di informazioni e conoscenze nelle comunità

    [Tempo di lettura: 3 minuti]

    Una comunità è un super-organismo complesso. Nel suo interno circolano molti tipi di informazioni, si scambiano numerose comunicazioni, si creano e si condividono molte conoscenze.

    In una comunità complessa, può essere difficile e insostenibile organizzare tutte le informazioni e le conoscenze secondo un unico criterio. Le comunità sono costituite da individui con diverse esperienze, punti di vista, competenze e background culturali. Questa diversità porta a una varietà di prospettive e approcci alla conoscenza.

    Organizzare le informazioni in modo centralizzato e secondo un unico criterio potrebbe non tener conto di questa diversità e ridurre la complessità delle conoscenze presenti nella comunità. Invece, può essere più utile adottare approcci flessibili e adattabili per l’organizzazione delle informazioni, consentendo la coesistenza di molteplici criteri e punti di vista.

    Un modo per affrontare questa sfida potrebbe essere quello di utilizzare strumenti e piattaforme digitali che consentano una categorizzazione e un’organizzazione flessibile delle informazioni. Ad esempio, l’utilizzo di tag o etichette può consentire alle persone di assegnare diverse prospettive o categorie alle informazioni, consentendo una navigazione più personalizzata e contestuale.

    Inoltre, può essere utile promuovere la condivisione e l’interazione tra i membri della comunità, in modo che le conoscenze possano emergere in modo collaborativo e cooperativo. Questo può favorire l’apprendimento reciproco e stimolare l’evoluzione e l’arricchimento delle conoscenze nella comunità stessa.

    L’organizzazione delle informazioni e delle conoscenze in una comunità complessa richiede un approccio aperto, flessibile e partecipativo, che tenga conto della diversità e della complessità delle prospettive presenti.

    Ci sono diversi strumenti digitali disponibili che possono aiutare nell’organizzazione delle informazioni in una comunità.

    1. Piattaforme di gestione della conoscenza: queste piattaforme consentono di organizzare e condividere informazioni in modo strutturato. Ad esempio, wiki aziendali o software di knowledge management offrono strumenti per creare, modificare e organizzare contenuti in modo collaborativo. La capacità di indicizzare contenuti multimediali e quella di trovare legami tra documenti potenzia la ricerca di contenuti e la collaborazione tra persone.
    2. Strumenti di gestione dei progetti: software di questo tipo possono aiutare a organizzare le informazioni in modo visuale, consentendo di creare elenchi di attività, assegnare responsabilità e tenere traccia dei progressi.
    3. Strumenti di condivisione e archiviazione dei file: le piattaforme di condivisione dei file consentono di archiviare e condividere documenti, presentazioni o altri tipi di file in modo accessibile a tutti i membri della comunità.
    4. Strumenti di messaggistica e collaborazione: applicazioni di messaggistica di gruppo consentono di comunicare e collaborare in tempo reale, facilitando la condivisione di informazioni e la discussione tra i membri della comunità.
    5. Piattaforme di social media: piattaforme che offrono spazi dedicati alla condivisione e alla discussione di informazioni specifiche, consentendo di creare comunità online e organizzare contenuti in modo tematico.
    6. Strumenti di tag e categorizzazione: alcuni strumenti consentono di assegnare tag o etichette alle informazioni per organizzarle in base a categorie o temi specifici.

    Questi sono solo alcuni esempi di strumenti digitali disponibili per l’organizzazione delle informazioni in una comunità. La scelta del giusto strumento dipenderà dalle esigenze specifiche della comunità e dal tipo di informazioni che devono essere organizzate e condivise.

  • Che differenza c’è tra insieme e flusso?

    Che differenza c’è tra insieme e flusso?

    [Tempo di lettura: 14 minuti]

    Insieme e flusso sono due concetti fondamentali nel nostro pensiero astratto. Sono simili ma differenti. Uno dei due è stato posto a fondamento della matematica. Che succederebbe se lo sostituissimo con l’altro? Considera che l’intero edificio della matematica poggia su una manciata di postulati riguardanti il concetto di insieme: meno di una decina! Dunque, piccole variazioni della loro formulazione possono scatenare effetti a valanga. Cosa succederebbe se, addirittura, sostituissimo il concetto di insieme con quello, più generale, di flusso? Senza entrare troppo a fondo nei tecnicismi, proviamo insieme ad immaginare qualche tratto di un universo (matematico) alternativo.

    Il concetto di flusso è più generale di quello di insieme

    È piuttosto facile capire che ogni insieme è un flusso in cui il tempo è idealmente congelato ad un certo istante ed in cui ogni elemento è identificabile. Lo è persino la radice quadrata di due, nell’insieme dei numeri reali, visto che esiste un modo per calcolare le sue cifre decimali fino alla precisione desiderata. Oppure, per fare un esempio su un piano della realtà gestibile dai nostri sensi, immaginiamo di enumerare ad una ad una le auto che passano sotto il ponte in cui ci troviamo.

    Viceversa, non tutti i flussi sono insiemi. Non sempre è possibile immaginare o rappresentare informaticamente la configurazione di un flusso ad un certo istante. Si pensi ad un flusso di cariche elettriche: troppo veloce e sfuggente per qualunque strumento di misura. Se il ponte dell’esempio precedente è molto alto e se il traffico è molto intenso allora potrebbe essere difficile osservare le auto individualmente, distintamente; ed il flusso automobilistico non potrebbe più essere considerato un insieme.

    Vediamo ora come i due concetti siano differenti.

    La differenza tra insieme e flusso, da 6 punti di vista

    Molto schematicamente, ecco 6 punti di vista dai quali evidenziare le differenze.

    • Punto di vista ontologico: non è scontato poter individuare gli elementi singoli che compongono un flusso, a differenza di quanto avviene in genere per un insieme.
    • Punto di vista cognitivo: il cervello tende a categorizzare gli elementi di un insieme in maniera distinta e rigida, mentre percepisce un flusso in modo più elastico e integrato.
    • Punto di vista del trattamento delle informazioni: un insieme si presta meglio ad un’elaborazione analitica ed estrattiva delle singole parti, mentre un flusso richiede un approccio più sistemico e una comprensione delle dinamiche relazionali.
    • Punto di vista del trattamento delle conoscenze: un insieme favorisce una conoscenza frammentata ed enciclopedica, mentre un flusso si adatta maggiormente ad una visione interconnessa e in divenire.
    • Punto di vista temporale: l’insieme dà maggiore importanza al presente e al permanere degli elementi, mentre il flusso sottolinea il divenire e il cambiamento continuo nel tempo.
    • Prospettiva sistemica: l’insieme evidenzia le singole componenti, il flusso ricorda che fanno parte di un sistema aperto in trasformazione.

    Vediamo più in dettaglio che luce getta ciascun punto di vista sulla questione.

    La differenza ontologica tra flusso ed insieme

    Il punto di vista ontologico è il principale ma forse anche quello meno facile da capire.

    In un insieme, anche se composto da molti elementi, questi sono comunque individuabili e distinguibili uno ad uno.

    Nel flusso invece molto spesso è più difficile, se non impossibile, individuare le singole “particelle” che lo compongono, che si fondono e si mescolano in continuo movimento.

    Ad esempio, si riesce ad enumerare e contare gli elementi di una scatola di spilli, mentre è praticamente impossibile contare una ad una le molecole che compongono un flusso d’acqua corrente.

    Il flusso ha dunque una natura ontologicamente più “unitaria” e meno analiticamente divisibile rispetto all’insieme, dove gli elementi mantengono più nettamente la loro individualità.

    Ragionare e discorrere su un flusso è quindi diverso dal ragionare e discorrere su di un insieme perché nel primo caso si prendono in considerazione le interazioni col flusso mentre nel secondo caso le interazioni considerate sono primariamente quelle con gli elementi dell’insieme, mentre le interazioni con l’insieme sono fittizie, virtuali, scorciatoie logiche da cuore con attenzione. Per esempio, nei testi che trattano di istruzione degli adolescenti non si dovrebbe mai far riferimento all’adolescente medio, perché non esiste. Orientare un’azione educativa modulandola sull’adolescente medio può rivelarsi estremamente controproducente. Un simile approccio è utile in determinate circostanze e con determinate accortezze. Vedasi per esempio i buyer personas nel mondo del marketing.

    La differenza cognitiva tra insieme e flusso

    Il punto di vista cognitivo tocca aspetti legati alla percezione e al funzionamento della mente.

    • Insieme: il nostro cervello cataloga separatamente gli oggetti sul tavolo;
    • Flusso: la nostra mente percepisce in modo unitario il fluire di un fiume.

    In psicologia cognitiva, ci sono degli studi che hanno indagato le differenze nel modo in cui il cervello elabora concetti classificati come “insiemi” rispetto ai concetti legati ai “flussi”.

    Uno degli esperti che se n’è occupato è il neuroscienziato Douglas Hofstadter, noto per la sua opera “Godel, Escher, Bach”. Ha scritto anche Fluid Concepts and Creative Analogies, 1995. Hofstadter, nei capitoli 12 e 13 della prima delle due opere citate, analizza la distinzione tra “entità discretizzate” (corrispondenti agli insiemi) e “entità fluidificate” (simili ai flussi).

    Secondo Hofstadter, quando percepiamo degli oggetti separati, il cervello tende a categorizzarli rigidamente, creando confini netti. Mentre per i flussi usa schemi cognitivi più flessibili, che tengono conto delle interazioni dinamiche.

    Sono stati condotti studi di neuroimaging e psicologia cognitiva che esaminano le differenze nell’attivazione cerebrale tra la percezione di insiemi e flussi. Questi studi cercano di comprendere come il cervello elabora le informazioni in situazioni in cui le caratteristiche statiche degli insiemi differiscono dalle dinamiche dei flussi. Ecco alcuni esempi di tali studi:

    1. Elaborazione visiva: Ricerche sul campo della percezione visiva hanno esplorato come il cervello elabora insiemi di oggetti statici rispetto alla percezione di oggetti in movimento. Ad esempio, alcuni studi hanno utilizzato la risonanza magnetica funzionale o fMRI per identificare le aree cerebrali coinvolte nella percezione di insiemi di oggetti, come il riconoscimento di pattern o la lettura di scritte statiche, rispetto alla percezione di oggetti in movimento.
    2. Attenzione selettiva: La ricerca sull’attenzione selettiva ha esplorato come il cervello gestisce l’attenzione tra insiemi di oggetti e flussi di informazioni. Gli studi hanno utilizzato l’elettro-encefalogramma o EEG, fMRI e altre tecniche per esaminare come l’attivazione cerebrale varia a seconda che i partecipanti siano esposti a stimoli statici o dinamici, e come l’attenzione è focalizzata su elementi specifici all’interno di insiemi o flussi.
    3. Predizione e anticipazione: Alcuni studi hanno cercato di comprendere come il cervello anticipa gli eventi futuri in contesti di flussi di dati o informazioni in movimento. Questi studi hanno indagato l’attivazione cerebrale durante il processo di previsione e hanno utilizzato tecniche di imaging cerebrale per esaminare quali aree cerebrali sono coinvolte in queste attività.

    La differenza tra insieme e flusso nel trattamento delle informazioni

    Il computer è come un cervello elettronico: sia il computer sia il cervello svolgono funzioni cognitive ed elaborano informazioni. Le conoscenze possono essere intese come una sorta di distillato delle informazioni, il risultato del metabolismo delle informazioni, ciò che resta dopo aver analizzato le informazioni e collegate con conoscenze pregresse ed altre informazioni. Dati e fatti, senza una lettura organica, sono informazioni e non conoscenze. Vediamo, da questo punto di vista, come trattare informazioni inerenti insiemi sia diverso da trattare informazioni inerenti flussi.

    Nella teoria dell’informazione ci sono concetti e modelli che rispecchiano le differenze:

    • Un insieme di dati è spesso strutturato e categorizzato, ad esempio in una tabella database, permettendo analisi sulle singole feature/colonne.
    • Un flusso di dati è tipicamente non-strutturato e dinamico, come nei sistemi complessi. Richiede approcci di data mining più flessibili (es. machine learning) per comprenderne le relazioni.

    Tutto però parte dalla nostra mente. Noi elaboriamo informazione già alla fonte in modo diverso a seconda che abbiamo a che fare con insiemi o con flussi.

    • Insieme: analizziamo le diverse caratteristiche di ogni pianta nell’orto.
    • Flusso: osserviamo l’evoluzione nel tempo del traffico in città.

    A livello algoritmico, cioè di progettazione delle procedure di trattamento, non stupisce la necessità di ricorrere ad approcci dedicati e ben differenziati.

    Nei software, si usano database relazionali che trattano prevalentemente insiemi statici di record, mentre la data stream mining si occupa di flussi continui e di dati in divenire.

    Nell’ambito delle reti di telecomunicazione, i modelli di elaborazione a pacchetti separati si adattano a insiemi discreti di informazioni, mentre le simulazioni di flussi continui riguardano sistemi di comunicazione in tempo reale.

    Altro esempio è la compressione dati: gli algoritmi ad insiemi fissi sono ottimizzati su blocchi separati, mentre quelli a flussi trattano stream incomprimibili singolarmente.

    Le reti neurali artificiali si collocano in una posizione intermedia tra insiemi e flussi da un punto di vista del trattamento delle informazioni.

    Se non le conosci, ti basti sapere che si tratta di costrutti informatici che hanno un comportamento analogo, per alcuni aspetti, a quello delle reti di neuroni: i singoli neuroni interconnessi ricevono segnali, rappresentati da serie di numeri; elaborano i segnali in ingresso modulandoli con dei coefficienti di pesatura e producendo eventualmente un segnale in uscita se i segnali in ingresso raggiungono una certa soglia d’intensità minima. I coefficienti devono essere tarati prima di potersi aspettare un minimo di affidabilità. La taratura viene chiamata: addestramento o training. Il tipo di connessioni tra neuroni, cioè la topologia della rete, è qualificante e ne determina l’utilità a seconda dello scenario di utilizzo. Per esempio, se una rete neurale ha cortocircuiti allora si dice retroattiva ed ha capacità di auto-apprendimento.

    Da un lato, molti tipi di reti neurali vengono addestrate su insiemi statici di dati, come accade nell’apprendimento supervisionato, avvicinandosi al paradigma degli insiemi.

    Dall’altro lato però, una volta addestrate sono in grado di elaborare flussi continui di input, come nel deep learning online. In questo caso la loro natura si avvicina più a quella dei flussi.

    Inoltre, alcune classi di reti neurali come i recurrent neural network o i reservoir computing network (per esempio la Echo State Network) sono progettate proprio per catturare effetti di memoria e dinamiche temporali, tipiche dei flussi.

    Si può dunque dire che le reti neurali:

    • nella fase di addestramento si avvicinano agli insiemi discreti di dati;
    • una volta addestrate sono in grado di gestire flussi continui di informazioni in ingresso;
    • alcuni tipi sono più “fluidificate”, particolarmente adatte proprio a contesti di flusso.

    Questa considerazione apre ad una riflessione potenzialmente interessante: caratterizzare costrutti informatici che, come le reti neurali, non sono pienamente comprensibili se li si guarda solo dal punto di vista algoritmico. Ci sono altri due esempi interessanti da questo punto di vista: gli algoritmi genetici ed una mia piccola giocosa invenzione che potremmo chiamare: “algoritmi con memoria“.

    La differenza epistemologica tra insieme e flusso

    Dal punto di vista epistemologico, un approccio classico al trattamento della conoscenza da parte dell’uomo è l’enciclopedismo, che si basa sulla catalogazione analitica di sapere predefinito in categorie statiche. Questo riflette il paradigma degli “insiemi” di conoscenza ed è caratterizzato da grande stabilità.

    Uno studioso che, invece, si è occupato invece dell’acquisizione dinamica e relazionale della conoscenza è Gilbert Simondon, con i concetti di “individuazione” e “realtà preindividuale”. Per Simondon la conoscenza emerge da un campo di tensioni in continuo divenire. Si tratta evidentemente di un approccio più vicino al concetto di flusso.

    Anche la teoria dell’apprendimento complesso di Edgar Morin considera il sapere come proprietà emergente di sistemi aperti in transizione, lontano dalla logica dell’insieme di parti.

    Per entrambi, il focus è evidentemente spostato dall’individuo, dall’oggetto in sé dello studio, alla relazione.

    Questi diversi approcci epistemologici hanno riflesso a livello pratico e toccano uno dei temi più in voga in questo momento: alludo all’Intelligenza Artificiale. L’epistemologia fornisce una visione critica su come rappresentare, organizzare e far “apprendere” la conoscenza alle macchine e può stimolare lo sviluppo di tecnologie cognitive più aderenti alla reale natura del sapere.

    In ambito ingegneristico, l’intelligenza artificiale tradizionale implementa conoscenza formale e rigida, più simile agli insiemi. L’IA connessionista si avvicina di più ai flussi per la capacità di auto-organizzazione.

    La differenza tra insieme e flusso nella prospettiva temporale

    Il fattore tempo è cruciale nel distinguere tra l’approccio insiemistico e quello basato su flussi. Nel primo, il tempo è una dimensione, un aspetto. Nel secondo è parte integrante della rappresentazione, del modello mentale o informatico.

    Ecco una serie di esempi che chiarisce bene la differenza:

    • Fisica: la meccanica classica si basa su concetti statici/insiemi, la meccanica quantistica introduce il flusso temporale di probabilità.
    • Biologia: la fotografia coglie l’istante, lo studio dei processi evolutivi cattura il flusso di mutamento.
    • Storia: le epoche sono insiemi fissi, i processi storici sono le dinamiche che le attraversano.
    • Psicologia: i test misurano “stati”, la terapia segue l’evoluzione nel tempo.
    • Cinema: i fotogrammi sono insiemi di oggetti e persone, la pellicola in movimento riproduce un flusso di eventi.
    • Musica: la nota è qualcosa di fissato, l’esecuzione melodica è fluire di tempo ed intensità.
    • Narrativa: i capitoli possono esser visti come contenitori di persone e di eventi, la trama come flusso sequenziale.
    • Filosofia: l’ontologia si basa su entità, il divenire tratteggiato da Eraclito è flusso.

    Dove il discorso logico vacilla, la poesia ci aiuta ad oltrepassare i limiti del linguaggio, che si fanno angusti.

    Leopardi ha rappresentato la natura del tempo ne “L’infinito”:

    Sempre caro mi fu quest'ermo colle,
    e questa siepe, che da tanta parte
    dell'ultimo orizzonte il guardo esclude.

    La differenza tra insieme e flusso nella prospettiva sistemica

    La teoria dei sistemi complessi fornisce un solido fondamento per leggere gli ecosistemi come manifestazione concreta del paradigma del flusso. Le griglie concettuali basate sugli insiemi, viceversa, portano alla perdita di complessità in quanto riducono il tutto alla somma delle parti.

    • Insieme: classifichiamo le specie animali della foresta, oppure i vari organi e tessuti che compongono il corpo umano o, ancora suddividiamo una comunità in categorie come ceti, professioni e gruppi formali;
    • flusso: osserviamo le interdipendenze ecologiche in atto, le interazioni dinamiche e gli scambi metabolici tra tessuti ed organi, i processi di identificazione nelle comunità e le evoluzioni delle reti di relazioni sociali.

    Dal punto di vista della teoria dei sistemi, gli ecosistemi naturali sono considerati prototipi di sistemi aperti e complessi in continua evoluzione.

    Uno studio pionieristico in questo senso è stato condotto da Eugene Odum negli anni ’50, introducendo il concetto di successioni ecologiche per descrivere il fluire dinamico delle interazioni all’interno degli ecosistemi nel tempo.

    Successivi lavori di Prigogine mostrano come i sistemi naturali abbiano proprietà emergenti a livello macroscopico che non possono essere ridotte alla somma delle singole parti.

    Gli ecosistemi dunque si prestano come esempio calzante di sistema profondamente integrato: sebbene possano essere analizzati gli elementi costitutivi in un dato istante, questo non è sufficiente per comprenderli nell’insieme.

    Al contrario, la classificazione delinea categorie statiche di elementi, riflesso dell’approccio tipico dell’insieme. Questo va bene quando abbiamo il pieno controllo del sistema osservato, i legami causali sono identificabili e le interazioni sono misurabili. È come dire che abbiamo piena conoscenza, istante per istante, di ciascuno degli elementi dell’insieme corrispondente al sistema in esame. Avere un metodo di enumerazione consente di gestire, di redigere check-list, di calcolare in modo ottimizzato, di contabilizzare…

    Dal punto di vista sistemico, è possibile comunque concepire un approccio basato sugli insiemi, che metta in evidenza:

    • la classificazione delle componenti di un sistema in categorie distinte e separate;
    • l’analisi delle proprietà e delle funzioni di ciascuna componente considerata individualmente;
    • la decomposizione gerarchica del sistema in sottosistemi e parti sempre più elementari;
    • la comprensione del sistema attraverso lo studio analitico delle interazioni fra gli insiemi costitutivi.

    Dunque, focalizzando un aspetto alla volta, un approccio analitico basato sull’insiemistica può portare ad un’ampia conoscenza del sistema studiato. Il suo limite è di lasciare implicita la conoscenza profonda, di non considerare correlazioni e legami causali inespressi. Il rischio è quello di illudersi di avere il controllo, fornendo spiegazioni, a volte persino auto-coerenti, da singoli punti di vista, come se ciascuno di essi fosse l’unico possibile e contenesse tutte le certezze necessarie.

    La scienza ci ha insegnato che esistono entità intrinsecamente probabilistiche e sistemi che non possiamo descrivere compiutamente in modo auto-coerente, come sancito dal teorema di incompletezza di Gödel. Dobbiamo accettare che in ogni sistema complesso c’è un incomprimibile quanto di mistero…

    Fantamatematica

    L’edificio matematico si fonda sulla teoria assiomatica di Zermelo Fraenkel. Si tratta di 7 – 8 assiomi… poca roba… Eppure reggono un peso enorme: algebra, geometria, topologia, teoria dei numeri, teoria delle probabilità, calcolo, combinatoria e analisi.

    La teoria degli insiemi può essere vista come un caso particolare di una teoria matematica più generale basata sui flussi. Alcuni punti che avvalorano questa visione: i flussi…

    • …permettono di cogliere aspetti qualitativi e non solo quantitativi dei sistemi;
    • …consentono di formulare concetti matematici anche per realtà non discretizzabili come curve e campi;
    • …risultano più aderenti a sistemi dinamici e stocastici della fisica e altro.

    Il lavoro da farsi è considerevole: andrebbero generalizzati concetti come funzione, limite, derivata da oggetti fissi a flussi continui.

    Questo però potrebbe aprire nuove prospettive per estendere ulteriormente la matematizzazione a sistemi non coerenti con l’ottica insiemistica tradizionale.

    Anche la Scienza dell’informazione trarrebbe giovamento dall’uso dei flussi. Le fondamenta della teoria classica, sviluppata da Shannon, sono insiemistiche ma tale teoria incorpora già nelle origini alcuni aspetti da flussi. Shannon stesso si rese conto che nella comunicazione reale i segnali sono flussi continui nel tempo e nello spazio. Introdusse quindi nozioni di derivate, integrali e variabili casuali continue. Le evoluzioni più recenti enfatizzano ulteriormente questa componente dinamica e continua. Teorie successive, come quella dell’informazione computazionale e dell’informazione quantistica, hanno ulteriormente spostato l’attenzione sui flussi. In ingegneria delle telecomunicazioni si usano sia modelli discreti che continui a seconda dell’applicazione.

    Potrebbe essere fertile ripensare anche la logica formale proprio a partire dalla nozione più primaria di flusso, invece che da concetti prettamente insiemistici come variabili e valori di verità. Il “filo logico” di un ragionamento è appunto un flusso sequenziale di passaggi. La semantica denotazionale in logica si fonda sul concetto di flusso di informazioni in una dimostrazione. Alcuni concetti logico-formali potrebbero essere riconcettualizzati in termini di: flussi di informazioni, transizioni semantiche, evoluzioni temporali, dinamiche causali. Questo potrebbe aprire a una “logicizzazione” di concetti propri delle scienze dinamiche. Seppur complesso, può essere uno stimolo per ripensare in modo più aderente la natura “scorrevole” anche del pensiero logico-deduttivo.

    Concludendo…

    Sappiamo che la matematica attuale ha qualche problemino con la teoria della misura (v. paradosso di Banach-Tarski, dimostrato un secolo fa). Mettiamo nel calderone anche la misura della complessità algoritmica e quindi l’annosa questione della congettura “P=NP?”, risalente a mezzo secolo fa. Misurare ed individuare è proprio ciò che nel mondo degli insiemi è semplificato rispetto al mondo dei flussi: come abbiamo visto, negli insiemi si può sempre individuare ogni singolo elemento.

    Sappiamo anche che la fisica e l’informatica trattano sostanzialmente flussi (materia, energia, informazione) e che il linguaggio matematico è basato sugli insiemi, non sui flussi. Questo spiegherebbe perché ci sono oggettive difficoltà, in fisica, a descrivere alcuni fenomeni – e se il dualismo onda-particella si risolvesse introducendo il concetto di flusso?

    Abbiamo insomma alcuni indizi: ripartire dai flussi può rivelarsi un’opportunità. Occorre accettare l’idea di immergersi nella complessità – e matematizzarne il paradigma! – ed abbandonare eroicamente le tranquille sponde del semplice e del complicato.

  • Algoritmi con memoria

    Algoritmi con memoria

    [Tempo di lettura: 2 minuti]

    Una ricetta di cucina, una ricetta chimica, una distinta base industriale, un programma per computer… sono tutte procedure e tutte vengono espresse sotto forma di elenco di istruzioni da eseguire. Gli informatici un tempo lo chiamavano: “listato”. Uno mi può obiettare che nella distinta base ci sono sia voci indicanti lavorazioni sia voci indicanti materiale. A ben vedere, anche queste ultime indicano indirettamente un’azione. Se la distinta base di produzione di una penna indica un cappuccio, quando consegno l’ordine di produzione al reparto, il personale sa che dovrà prelevare il cappuccio e disporlo nella confezione della penna. Istruzioni.

    Accendiamo l’immaginazione su una ricetta o una distinta base o un programma per computer. Sogniamo che il listato fluttui nello spazio 3D ed introduciamo dei legami tra una riga e la sua successiva in modo da non perdere il filo quando il listato viene eseguito.

    Infine aggiungiamo un’istruzione qualunque nello spazio circostante il nostro listato e colleghiamolo ad una delle istruzioni esistenti. Distinguiamo il nuovo legame dagli altri usando un colore diverso.

    Se conveniamo di preferire i legami di un certo colore e di trascurare gli altri, la modifica che abbiamo apportato non altera il flusso esecutivo del listato.

    Il colore può essere tradotto anche come peso, importanza relativa nell’esecuzione del flusso operativo. Generalizzando, possiamo avere non più solo una sequenza di esecuzione delle istruzioni corrispondente a quella costituita dal listato: si possono predisporre vari percorsi ed anche criteri per tarare l’importanza relativa delle connessioni, cioè attuare un apprendimento.