Andare oltre la terminologia per sfruttare al meglio l'IA
Il linguaggio dell'intelligenza artificiale si evolve continuamente e può sembrare difficile restare al passo. Questo glossario è stato realizzato per illustrare tutti i termini legati al mondo dell'IA che bisogna conoscere quando si lavora con dati e analisi.
Assistenti IA (Copilota IA)
Algoritmo
Analytics aumentate
Data Integration aumentata
Data Quality aumentata
Autoclassificazione
AutoML
Insight automatizzati
Bilanciamento
Bias
Citizen Data Scientist
Classificazione
BI cognitiva
IA conversazionale
Data Cleaning
Data Foundation
Governance dei dati
Data Labeling
Data Preparation
Data Provenance
Data Quality
Data Quality Intelligence
Data Science
Deep Learning
Esperimento
IA spiegabile
Previsioni
Modello di base
IA generativa
Analisi dei fattori chiave
Modelli linguistici di grandi dimensioni (LLM)
Low-Code/No-Code
Machine Learning
Creazione del modello
Distribuzione del modello
Deriva del modello
Modello di addestramento
Natural Language Query (NLQ)
Rete neurale
IA predittiva
Anlytics predittive
Prompt
Regressione
Apprendimento auto-supervisionato e non supervisionato
Analisi del sentiment
Valori di Shapley
Dati strutturati e non strutturati
Apprendimento supervisionato
Dati sintetici
Analisi delle serie temporali
Dati di addestramento
Scenari ipotetici
Assistenti IA (Copilota IA)
Ehi Siri, che cos'è un assistente IA? Queste soluzioni basate su IA sono in grado di capire ed eseguire comandi in linguaggio naturale. L'interfaccia di tipo umano consente alle persone di impartire ordini/istruzioni vocali (prompt) affinché l'assistente esegua compiti e fornisca risposte specifiche. Gli assistenti IA sono sempre più diffusi e integrati in molti dispositivi intelligenti moderni, come Alexa di Amazon, Siri di Apple, Copilot di Microsoft e Google Assistant, che sono gli esempi più noti di intelligenza artificiale accessibile ai consumatori.
Algoritmo
Ogni modello IA ha bisogno di un percorso o insieme di istruzioni da seguire. Si tratta sostanzialmente di algoritmi che indicano a un modello come operare e ne definiscono la capacità di apprendimento. L'algoritmo svolge questo compito acquisendo dati di addestramento e utilizzandoli come punto di partenza per l'esecuzione di compiti. Svolgendo via via sempre più compiti, l'algoritmo impara in base alla corrispondenza dei risultati ottenuti con quelli desiderati e perfeziona il processo di conseguenza. Poiché gli algoritmi sono in grado di autoperfezionarsi in questo modo, i programmatori devono spesso monitorare attentamente il loro apprendimento per verificare che si comportino come previsto e per evitare possibili pregiudizi (bias). Nell'ambito del machine learning e dell'IA esistono oggi molti algoritmi differenti per svolgere compiti diversi. Data scientist ed esperti di machine learning devono capire come e perché adottare un determinato approccio algoritmico, in base al problema, ai dati e agli obiettivi.
Analytics aumentate
Le analytics aumentate consentono a chi utilizza i dati di interagire con le informazioni a un livello che arricchisce la conoscenza umana. Secondo Gartner, questo comporta "l'uso di tecnologie abilitanti come machine learning e IA per supportare la preparazione dei dati, la generazione di insight e la loro spiegazione". Questi elementi abilitanti portano le capacità di analisi a un nuovo livello, aumentando la profondità con cui le persone possono analizzare i dati. In ultima istanza, questo approccio aumenta la capacità dell'essere umano di interagire con i dati in modo contestualizzato e consente a un pubblico più vasto di utilizzare strumenti analitici.
Data Integration aumentata
Le attività di integrazione dei dati comportano spesso un grande dispendio di tempo per i professionisti della gestione dei dati. Pur essendo importanti, si tratta di attività con un valore aggiunto relativamente basso che non sfruttano al meglio le competenze avanzate dei professionisti. La Data Integration aumentata sfrutta l'IA per velocizzare questi processi, alleviando il carico di lavoro degli esperti di gestione dei dati. Secondo Gartner, automatizzando l'insieme delle attività di gestione dei dati si può ridurre il tempo dedicato ai processi manuali del 45%, consentendo alle organizzazioni di ampliare le loro attività operative e agli esperti di dati di concentrarsi su compiti più complessi o critici.
Data Quality aumentata
La qualità dei dati è un componente fondamentale delle iniziative di governance dei dati di un'organizzazione, in quanto misura la precisione, la completezza e il pregiudizio dei set di dati, oltre alla loro idoneità allo scopo prefissato. Se non si convalida la qualità delle informazioni analizzate, i sistemi automatizzati non funzioneranno come richiesto. L'introduzione dell'automazione in questo processo (detta appunto "Data Quality aumentata") velocizza tutto il lavoro. Si tratta di un approccio particolarmente utile per validare grandi set di dati, un'operazione che richiederebbe molto tempo se svolta manualmente. Si ottiene così un duplice vantaggio: dati di alta qualità e maggiore efficienza per svolgere compiti essenziali ma potenzialmente lunghi.
Autoclassificazione
I processi di analisi non sono sempre finalizzati a ricavare informazioni dettagliate e approfondite da set di dati complessi. Per alcune esigenze di un'organizzazione, potrebbe essere sufficiente catalogare i documenti o altre risorse in categorie ampie e generiche. Un esempio è l'analisi del sentiment, che può essere migliorata dall'IA sfruttando l'autoclassificazione. Basandosi su criteri predefiniti, l'autoclassificazione analizza i documenti e assegna tag ed etichette senza bisogno dell'intervento da parte dell'essere umano.
Se l'azienda ha esigenze particolarmente sofisticate, questo processo può essere gestito adattando le parole chiave ricercate dal modello. L'autoclassificazione offre enormi benefici nella gestione dei contenuti, consentendo agli utenti di classificare velocemente i contenuti in categorie, ed è fondamentale per sfruttare il potenziale delle ricerche basate su IA.
AutoML
AutoML™ è una soluzione studiata per aiutare i team di analisi a utilizzare il machine learning (ML) senza bisogno di avere competenze specifiche. Gartner descrive AutoML come l'automazione delle attività di preparazione dei dati e di ingegnerizzazione delle funzionalità e dei modelli, tre compiti che hanno sempre richiesto conoscenze specifiche. AutoML consente ora a sviluppatori con competenze di ML limitate di svolgere compiti estremamente complessi e addestrare modelli di alta qualità specifici per le loro esigenze operative, aiutandoli a passare dall'analisi storica all'analisi predittiva per un numero crescente di casi d'uso.
Insight automatizzati
Automatizzando l'estrapolazione degli insight, le organizzazioni possono letteralmente ottenere tutto senza dover rinunciare a nulla. In altre parole, sfruttando l'IA, gli utilizzatori di dati possono beneficiare di informazioni facilmente comprensibili e fruibili ricavate da grandi quantità di dati, senza bisogno di analisi manuali che richiedono competenze tecniche.
In particolare, questo consente ai dipendenti non tecnici di prendere decisioni in tempi più rapidi. Le soluzioni di Insight automatizzati possono essere coadiuvate da machine learning, elaborazione del linguaggio naturale o analisi statistiche, per ottenere informazioni chiave e azioni suggerite in modo comprensibile.
Bilanciamento
A volte i set di dati contengono caratteristiche (feature) non bilanciate, con una classe di dati che supera ampiamente le altre. Si parla in questo caso di classe sbilanciata, di cui bisogna tenere conto per il processo di machine learning. Il processo di bilanciamento è ben conosciuto ai data scientist: se un set di dati resta sbilanciato, infatti, può incidere notevolmente sulla precisione dell'analisi o portare alla creazione di modelli IA pregiudizievoli. Per risolvere questo problema si possono utilizzare diversi metodi, ad esempio ricampionare la generazione di dati sintetici. La scelta del metodo più adatto dipende dalle caratteristiche specifiche del set di dati.
Bias
Bias in AI is like a hidden trap that can skew your model’s predictions and decisions. It creeps in from various sources, including the training data, the algorithms, or even how the AI is deployed. If your training data has biases, such as underrepresenting certain groups, your AI will likely repeat those biases. That’s why it's essential for data scientists to spot and fix bias using techniques like balanced datasets and fairness checks, ensuring your AI operates fairly and transparently.
Citizen Data Scientist
Analisi, IA e dati non sono più appannaggio esclusivo dei tecnici specializzati. Questo è ormai chiaro vedendo lo spettro sempre più ampio di settori e ruoli che utilizzano i dati a supporto del loro lavoro. Sta emergendo così la figura del "citizen data scientist", un analista che si cimenta con la data science nel proprio ruolo, senza essere uno specialista di codici o statistiche.
Ad esempio, i citizen data scientist sono tendenzialmente più orientati al business, riducendo il divario tra l'analisi e i processi decisionali strategici. Queste figure potenziano il lavoro dei data scientist, sfruttando i loro insight per aiutare le organizzazioni a utilizzare i dati con l'obiettivo di prendere le decisioni quotidiane e consentire agli specialisti di concentrarsi sugli aspetti più tecnici del lavoro.
Classificazione
Il processo di classificazione sfrutta il machine learning per automatizzare la catalogazione di dati o documenti in gruppi predefiniti. Immaginiamo di gettare una manciata di calzini spaiati in un cassetto, chiuderlo e, una volta riaperto, trovare i calzini automaticamente abbinati e suddivisi in modelli per sport, lavoro e tempo libero. Questo esempio dimostra ciò che possono fare gli algoritmi di classificazione. Per operare con successo, i modelli devono essere addestrati in modo da sapere come assegnare determinate etichette o parole chiave alle categorie corrette. In questo modo imparano a classificare autonomamente set di dati futuri, assegnando ciascun dato alle categorie rispettive e pertinenti. In sostanza, gli algoritmi di classificazione offrono alle aziende un metodo evoluto per ottenere informazioni predittive e individuare schemi nascosti (pattern).
BI cognitiva
Per consentire alle aziende di adottare processi decisionali guidati dai dati, la BI cognitiva unisce i tradizionali processi di business intelligence con tecnologie di calcolo cognitivo, come l'IA e l'elaborazione del linguaggio naturale. Questa combinazione tecnologica cambia il modo in cui i dati vengono utilizzati nelle organizzazioni, dal marketing all'ufficio finanziario, fornendo insight approfonditi e dettagliati estrapolati dai dati, accessibili, fruibili e preziosi.
IA conversazionale
Per trovare applicazioni nel mercato di massa, l'IA deve essere in grado di comprendere, elaborare e simulare il linguaggio umano. È qui che entra in gioco l'IA conversazionale, un tipo di modello che consente agli esseri umani di dialogare con l'intelligenza artificiale. L'IA conversazionale viene utilizzata normalmente dai team del servizio clienti sotto forma di chatbot, che sono in grado di rispondere a domande e risolvere problemi attraverso il riconoscimento di parole chiave e la formulazione di risposte predefinite. Questa tecnologia è anche alla base dell'analisi conversazionale, che consente alle aziende di apprendere dalle interazioni con i loro clienti, grazie alla capacità di comprendere le conversazioni e ricavarne dati.
Data Cleaning
Data cleaning is like giving your data a good scrub, getting rid of errors and inconsistencies. This includes removing duplicates, fixing inaccuracies, handling missing values, and ensuring uniform formats. Clean data is crucial for accurate AI models, as if your data is dirty it can result in misleading insights. By keeping your data clean, you ensure it’s ready for analysis, and your AI models can deliver trustworthy results.
Data Foundation
Think of a data foundation as the rock-solid base that holds up all your AI efforts. It covers everything from data collection and storage to management and analysis. This includes having strong data governance, top-notch data pipelines, secure storage, and efficient processing tools. With a robust data foundation, your data is accurate, consistent, and ready for action, helping you unlock AI’s full potential for smarter insights and better decisions.
Governance dei dati
Affinché l'analisi dei dati sia efficace, le organizzazioni devono definire regole e norme interne che stabiliscano in che modo i dati vengono raccolti, memorizzati, elaborati ed eliminati. Governance dei dati è il termine generico che indica queste attività. Oltre a offrire maggiori garanzie sulla sicurezza dei dati, avere strutture di governance corrette dimostra che i dati in possesso dell'organizzazione sono affidabili e non vengono utilizzati in modo improprio. Il ruolo crescente dei dati per la strategia commerciale ha prodotto regolamenti sulla riservatezza dei dati in continua evoluzione che le aziende devono rispettare, rendendo la governance dei dati sempre più critica.
Data Labeling
Il Data labeling dei dati è il processo che rende i dati comprensibili e utilizzabili da parte degli algoritmi di machine learning, tramite l'aggiunta di etichette o tag descrittivi o informativi. Etichettando i dati, gli algoritmi possono essere addestrati per formulare previsioni o classificazioni basate su tali informazioni. Successivamente, l'algoritmo può cominciare a produrre previsioni accurate quando riceve dati nuovi non etichettati.
Data Preparation
Data preparation is the magic that turns raw data into gold. It involves cleaning, structuring, and enriching raw data to make it ready for AI model training. Proper data preparation ensures your data is accurate and consistent, setting the stage for high-performing AI. Investing in thorough data prep means better analytical insights and more effective AI-driven results.
Data Provenance
Data provenance is like a detailed diary for your data, tracking its journey from origin to final use. It records where the data comes from, how it’s transformed, and how it’s used, ensuring transparency and accountability. Knowing your data’s history is crucial for verifying its quality, staying compliant with regulations, and simplifying troubleshooting. By keeping detailed records of data provenance, you can trust your data and the AI models built on it.
Data Quality
Data quality is all about making sure your data is up to scratch – accurate, complete, consistent, reliable, and timely. High-quality data is the key to AI models that deliver valid and actionable insights. If your data is flawed, your AI's predictions will be too. That’s why organizations need to practice good data hygiene, with regular cleaning, validation, and monitoring to keep their data in top shape and ensure their AI is spot on.
Data Quality Intelligence
Un modello IA è valido tanto quanto lo sono i dati che lo alimentano. Se un modello viene addestrato con dati di qualità scadente, può produrre risultati imprecisi e inaffidabili. La Data Quality Intelligence è il pilastro di una buona strategia di gestione dei dati, laddove le organizzazioni analizzano la solidità dei loro dati e delle pratiche di gestione degli stessi. È essenziale che questa azione venga intrapresa utilizzando tali informazioni, perché senza di esse non è possibile garantire che le decisioni guidate dai dati siano sempre basate su informazioni affidabili.
Data Science
Per estrapolare insight approfonditi e previsioni dai dati (in particolare da grandi quantità di dati), serve una combinazione di diverse discipline quali statistica, informatica e matematica. Questa combinazione è nota come data science, una formula che trasforma dati grezzi in informazioni che possono essere sfruttate per individuare tendenze e supportare decisioni.
Gli esperti di data science, o data scientist, possiedono in genere competenze avanzate di gestione dei dati, ma possono essere impegnati in diverse situazioni, dalla raccolta di dati all'implementazione di un modello di IA in un contesto aziendale. Si tratta di una disciplina che si è fatta strada rapidamente nella maggior parte dei settori, via via che le organizzazioni hanno iniziato a scoprire nuovi modi per utilizzare i dati più efficacemente a supporto delle loro decisioni.
Deep Learning
Tutte le forme di intelligenza artificiale tentano di replicare i processi decisionali del cervello umano, ma alcune sottodiscipline vi si avvicinano più di altre. Ad esempio, il deep learning è un tipo di machine learning basato su reti neurali, sia nella sua struttura, sia nell'utilizzo di livelli interconnessi di neuroni artificiali, sviluppato per elaborare dati e apprendere da essi.
Secondo Forrester, questa tecnologia è ideale soprattutto per "costruire, addestrare e testare reti neurali che, con criteri probabilistici, prevedano risultati e/o classifichino dati non strutturati". In sostanza, significa che il deep learning è alla base di applicazioni quali riconoscimento di immagini e testo parlato, traduzioni, guida autonoma e motori di raccomandazione.
Esperimento
Un esperimento è un processo utilizzato per addestrare, valutare e perfezionare modelli di machine learning. Gli esperimenti sono altamente strutturati e consentono a data scientist e utenti di AutoML di organizzare e gestire tutte le loro esecuzioni di machine learning, dette "run". Questo esercizio richiede spesso molteplici iterazioni affinché il modello funzioni come richiesto, effettuando in molti casi visualizzazioni e comparazioni fra un'esecuzione (run) e l'altra. Gli esperimenti svolgono un ruolo chiave per individuare schemi ricorrenti (pattern), per ottimizzare il modello e per garantire che sia pronto per implementazioni nel mondo reale.
IA spiegabile
L'IA è molto efficiente nel generare informazioni e prevedere esiti. Ma è altrettanto importante, e forse ancora di più, capire come è giunta a certe conclusioni. La spiegabilità è fondamentale per capire come intervenire nel modo più efficace per incidere sui risultati, favorire la comprensione e consolidare la fiducia. Tuttavia, non tutti i modelli di machine learning sono spiegabili. Pertanto, quando si deve decidere quali algoritmi usare, bisogna valutare l'esigenza di metriche di spiegabilità rispetto al contesto nel quale le decisioni vengono prese. Senza spiegabilità, le organizzazioni potrebbero introdurre pregiudizi involontari nel processo decisionale.
Previsioni
Un vantaggio fondamentale dell'utilizzo dell'IA per l'analisi dei dati deriva dalla sua capacità di prendere informazioni storiche ed elaborare previsioni entro un determinato arco di tempo. Queste previsioni temporali partono da un insieme di dati storici e utilizzano regressioni singole o multivariate per prevedere risultati futuri.
I programmi di pianificazione IA possono prevedere eventi futuri analizzando grandi quantità di dati strutturati e non strutturati, individuando nessi e scoprendo schemi ricorrenti con modalità che vanno ben oltre i tradizionali sistemi di previsioni. Questo approccio non solo consente alle aziende di fare scelte lungimiranti, ma tiene anche conto di diversi scenari nel caso in cui le cose non vadano come previsto.
Modello di base
Prima di essere sviluppato con dati di addestramento per un'applicazione specifica, il modello di IA generativa viene detto "modello di base". Questi modelli sono la base su cui vengono costruiti algoritmi più complessi, adattati dall'azienda a seconda della loro destinazione. In genere, i modelli di base sono modelli su larga scala e vengono addestrati su set di dati molto ampi. Alcuni esempi sono GPT-3 e GPT-4 di OpenAI, utilizzati come modelli di base per ChatGPT.
IA generativa
L'IA ha applicazioni praticamente illimitate, ma non è mai stata considerata una valida alternativa ai ruoli creativi. Questo fino all'avvento dell'IA generativa. I modelli generativi sono specificamente studiati per sintetizzare nuovi contenuti come testi, audio, immagini, video o musica.
Tuttavia, hanno ancora bisogno di un contributo umano e di enormi quantità di dati per apprendere i pattern e le strutture necessari per generare contenuti originali complessi. Questa branca dell'IA non è esente da preoccupazioni di carattere etico, essendo spesso utilizzata per confondere finzione e realtà, in particolare con i cosiddetti deepfake.
Analisi dei fattori chiave
L'Analisi dei fattori chiave (o KDA, Key Driver Analysis) individua i fattori che incidono su un determinato esito e ne valuta l'importanza relativa nel prevedere l'esito stesso. L'applicazione più diffusa si trova nelle ricerche di mercato o nell'analisi delle relazioni con la clientela, dove questa tecnologia aiuta a capire i fattori che guidano i comportamenti dei clienti e a perseguire gli obiettivi dell'azienda, ad esempio la fidelizzazione dei clienti. L'IA può migliorare questa analisi gestendo set di dati estremamente complessi e individuando pattern e correlazioni, procedendo a ritroso fino a identificare i fattori più importanti.
Modelli linguistici di grandi dimensioni (LLM)
Vi siete mai chiesti come faccia l'IA a creare contenuti come testi, musica, immagini e video? Ci riesce grazie ai modelli LLM. Questi algoritmi di deep learning sono alla base di prodotti e soluzioni di IA generativa come ChatGPT e, apprendendo da informazioni esistenti, sono in grado di generarne di nuove.
Come spiega Gartner, i modelli LLM sono addestrati su "enormi quantità" di dati, di cui hanno bisogno per operare efficacemente ricavando pattern e correlazioni da parole e frasi, per generare contenuti originali. Questo significa che tali modelli richiedono informazioni in massa, pubblicamente disponibili su Internet, che consentono ai prodotti basati su LLM di apprendere autonomamente e migliorare progressivamente con l'uso.
Low-Code/No-Code
Con l'avvento di prodotti e servizi digitali, lo sviluppo di software è diventata una delle competenze più ricercate dai datori di lavoro. Tuttavia, la domanda supera ancora l'offerta. Per rispondere a questa carenza, le organizzazioni usano piattaforme "low-code" o "no-code" che consentono a utenti non tecnici di contribuire al processo di sviluppo del software, pur avendo competenze limitate nella scrittura di codice. Queste soluzioni assumono spesso la forma di interfacce modulari, con meccanismi drag-and-drop e wizard, che consentono di sviluppare software senza scrivere codice.
In base alle proprie esigenze, un'azienda può adottare strumenti low-code (che richiedono un contributo limitato da parte di sviluppatori esperti) o no-code (che non richiedono alcun coinvolgimento di sviluppatori esperti). Questo approccio democratizza la capacità di creare sistemi IA e consente alle organizzazioni di impiegare proficuamente il tempo dei loro sviluppatori esperti.
Machine Learning
Il machine learning è una sottodisciplina dell'IA che consente ai sistemi computerizzati di apprendere automaticamente dai dati senza essere appositamente programmati. Questa tecnica viene utilizzata per individuare correlazioni e pattern nascosti e per fare previsioni. Solitamente si basa sul principio "più dati si hanno a disposizione, meglio è": gli algoritmi di machine learning apprendono in base ai dati immessi e migliorano i risultati ottenuti se possono contare su più informazioni. Le applicazioni possibili sono riconoscimento di immagini, elaborazione del linguaggio naturale, apprendimento supervisionato e non, e molte altre.
Creazione del modello
La progettazione e la creazione di modelli IA può essere un processo lungo e complesso, che richiede competenze di data science e machine learning. La creazione di modelli comporta una sequenza di attività che consentono di sviluppare un modello pronto per applicazioni nel mondo reale, partendo dalla raccolta e preparazione dei dati di addestramento e finendo con l'implementazione e la manutenzione. Questo richiede una combinazione di competenze tecniche, creatività e capacità di risoluzione di problemi.
Distribuzione del modello
Una volta addestrato, il modello IA può essere implementato in un ambiente reale, dove verrà alimentato con dati nuovi o in tempo reale per essere "valutato" o per elaborare previsioni. Tuttavia, non basta implementare il modello in un contesto reale: la distribuzione del modello non si ferma qui. Una volta messo a disposizione degli utenti finali o di altri sistemi software, il modello avrà accesso a un'ampia gamma di dati nuovi e imprevisti, che influenzeranno i pattern e le correlazioni individuali dal modello stesso. I modelli IA devono essere costantemente valutati e testati per assicurarsi che continuino a fornire i risultati desiderati.
Deriva del modello
I modelli IA sono costruiti su set di dati, che costituiscono le "banche dati" a cui essi attingono per prendere decisioni e fornire risultati. Tuttavia, se questi set di dati non vengono aggiornati nel tempo, il modello rischia di degradarsi, in quanto i presupposti su cui si basa non sono più veri. Questo fenomeno, detto "deriva del modello", porta a previsioni meno precise o pertinenti, oltre a un aumento dei falsi positivi e negativi. Se la deriva del modello non viene riconosciuta e risolta velocemente, può compromettere l'integrità dei modelli, nonché delle applicazioni e dei processi reali basati su tali modelli.
Modello di addestramento
Quando si sviluppano sistemi IA, è importante esporre ciascun modello a dati di qualità ed esempi di associazioni ed esiti corretti. Questo processo di addestramento dei modelli (sostanzialmente insegnare loro a riconoscere schemi, elaborare previsioni o eseguire compiti specifici) è necessario affinché possano generare risultati. Poiché il contesto o le esigenze organizzative legati al modello cambiano e il modello continua a imparare, può essere necessario un ulteriore addestramento per compensare l'esposizione a dati meno strutturati. Se il modello viene lasciato libero di imparare senza addestramenti periodici, aumenta il rischio di pregiudizi e risultati scadenti.
Natural Language Query (NLQ)
Man mano che si evolvono, le soluzioni di intelligenza artificiale richiedono volumi di dati crescenti. Affinché questa tecnologia sia accessibile a tutti, è importante che gli utenti con una formazione non tecnica possano interrogare i dati utilizzando il linguaggio comune. Si parla in questo caso di Natural Language Query (NLQ).
I sistemi di IA come gli assistenti virtuali usano il linguaggio naturale per analizzare la richiesta dell'utente, ricercare dati pertinenti e fornire una risposta. Oppure, per usare le parole di Gartner, trasformano gli input degli utenti in "informazioni codificate e strutturate". A seconda del livello di sofisticatezza della soluzione NLQ, le domande degli utenti possono essere poste per iscritto o verbalmente. In questo modo si evita la necessità di input diversi dal normale linguaggio e si garantisce l'accessibilità dei sistemi di IA per tutti.
Rete neurale
Ispirate al cervello umano, le reti neurali sono le "colonne portanti" dell'intelligenza artificiale e del machine learning. I modelli di calcolo sono progettati per elaborare dati e imparare da essi e, proprio come le sinapsi cerebrali, sono costituiti da nodi interconnessi (un data point in una rete o grafo) organizzati in strati. Esistono tre tipi di strati: uno strato di ingresso (input), strati nascosti e uno strato di uscita (output). Questi strati costituiscono la struttura di base che consente alle reti neurali di apprendere e modellare relazioni complesse nei dati, riuscendo ad analizzare tali relazioni a livello non lineare.
IA predittiva
L'IA predittiva, un fattore chiave dei processi decisionali guidati dai dati, individua pattern nei dati storici per generare previsioni o stime su eventi o esiti futuri. Gli algoritmi di IA possono analizzare set di dati vasti e complessi che vanno oltre la capacità umana, per rispondere alla domanda che Gartner formula come "che cosa è probabile che accada?". Questa capacità previsionale evoluta, che va oltre la tradizionale analisi predittiva, consente alle organizzazioni di disegnare scenari futuri sulla base di processi che sfruttano un'enorme quantità di dati.
Anlytics predittive
Le analisi devono essere basate su dati storici. Del resto, non possono analizzare qualcosa che non è ancora accaduto. Tuttavia, questo non significa che non possano elaborare previsioni su eventi futuri. Questo è il principio dell'analisi predittiva, definita da IBM come la combinazione di dati con "tecniche di modellazione statistica, data mining e machine learning". Apprendendo da dati storici, l'analisi predittiva è in grado di individuare schemi ricorrenti per sviluppare modelli predittivi che anticipano trend, eventi ed esiti futuri. Le organizzazioni implementano questa branca dell'analisi per supportare i processi decisionali e ottenere un vantaggio competitivo.
Prompt
Indipendentemente da quanto sia avanzato un modello o complesso il set di dati su cui si basa, l'IA dipende sempre da qualche forma di contributo umano. I "prompt" (suggerimenti, ordini, istruzioni o input) sono il punto di partenza per l'interazione con i modelli di IA, in quanto propongono una domanda o un'istruzione che induce il sistema a eseguire un determinato compito. I prompt possono variare molto, da semplici domande in linguaggio naturale a richieste dettagliate e molto contestualizzate. Come i consumatori di tutto il mondo stanno scoprendo sperimentando l'uso dell'IA generativa, la chiarezza del prompt può essere determinante per la precisione e la pertinenza del risultato generato dal modello. Ad esempio, un prompt può essere inefficace perché non è conforme alle capacità e ai limiti di un modello.
Regressione
Posto che i modelli IA possono essere basati su qualsiasi tipologia di dati, la regressione è una tecnica di machine learning supervisionato utilizzata specificamente per fare previsioni sulla base di valori numerici. Due fra le tipologie più comuni sono la regressione lineare e la regressione logistica. Il modello di regressione lineare traccia la linea (o curva) che meglio combacia con tutti i data point e prevede i valori successivi. Al contrario, la regressione logistica è un metodo binario che valuta la possibilità che qualcosa avvenga o meno, rispondendo sostanzialmente alla domanda "sì o no?". La regressione è particolarmente utile per supportare processi decisionali in ambiti dove si usano normalmente dati quantitativi, come finanza, economia, sanità e ingegneria, realizzando applicazioni quali la previsione delle quotazioni di borsa o la stima di ricavi.
Apprendimento auto-supervisionato e non supervisionato
Diversamente da quanto accade con l'apprendimento supervisionato, a volte la scarsità di dati etichettati rende più difficile l'addestramento di modelli IA. L'apprendimento auto-supervisionato è un metodo che consente di creare compiti partendo da dati non etichettati, sfruttando la struttura intrinseca e i pattern presenti all'interno dei dati per prevedere o generare parti dello stesso set di dati. Ad esempio, la tecnica di "image inpainting" consente di ricostruire parti mancanti di un'immagine in base ai pixel circostanti. L'apprendimento non supervisionato si spinge ancora più avanti, in quanto consente di scoprire insight nascosti addestrando il modello a riconoscere pattern, strutture o gruppi di oggetti senza etichette o target specifici. Queste tecnologie sono alla base dei sistemi per l'individuazione di anomalie.
Analisi del sentiment
L'IA è in grado di percepire le emozioni trasmesse da un testo? Questa capacità rimane un'esclusiva degli esseri umani ma, attraverso la sentiment analysis, l'IA può fare qualcosa di molto simile... le serve solo un aiuto iniziale. Per riconoscere efficacemente i sentimenti espressi da un testo, gli algoritmi devono essere addestrati su dati etichettati per associare parole ed emozioni.
Forrester descrive l'analisi del sentiment come la classificazione automatizzata di commenti online fra positivi, neutri e negativi. Tuttavia, è utile osservare che modelli più complessi possono consentire una valutazione più dettagliata e sono particolarmente utili per capire l'opinione pubblica e grandi quantità di testo.
Valori di Shapley
Quando si valuta la costruzione di un modello predittivo, bisogna considerare che alcuni valori incidono più di altri sulle previsioni. Nel machine learning, gli sviluppatori prestano grande attenzione ai "valori di Shapley" per spiegare l'importanza di caratteristiche individuali nel determinare gli esiti previsti.
Questo concetto deriva dalla teoria dei giochi, dove serve per determinare il contributo marginale di ciascun giocatore in un gioco cooperativo. L'obiettivo è assegnare una "ricompensa" calcolata in modo matematico ed equo a ogni funzione caratteristica in ingresso per il risultato generato dal modello (output). Questa tecnica fornisce indicazioni preziose sul funzionamento di un modello e consente di stabilire come vengono fatte le previsioni, aumentando in ultima analisi la trasparenza e favorendo una maggiore fiducia.
Dati strutturati e non strutturati
I set di dati vengono definiti come strutturati o non strutturati in base al loro grado di definizione e organizzazione. Mentre i dati strutturati sono solitamente contenuti in tabelle e database che agevolano la ricerca e l'analisi, i dati non strutturati non prevedono un formato o una classificazione predefiniti. Spesso si tratta di testi come e-mail, post sui social media o recensioni di clienti, che risultano più difficili da elaborare e dai quali è più complesso ricavare conclusioni significative. L'IA è particolarmente preziosa per ricavare informazioni dettagliate e approfondite da dati non strutturati, consentendo alle organizzazioni di attingere a dati disparati e finora inutilizzabili, per ricavarne informazioni fruibili.
Apprendimento supervisionato
Come avviene per gli studenti a scuola, a volte il metodo di insegnamento migliore è mostrare il percorso per arrivare alla risposta corretta. Il processo di apprendimento supervisionato prevede l'addestramento di un modello IA con un set di dati etichettati per insegnargli a generare i risultati desiderati. Imparando da risposte corrette note, l'apprendimento supervisionato consente all'algoritmo di generalizzare e prendere decisioni o elaborare previsioni sulla base di dati non visti. Questo principio è alla base di numerose tecniche fra cui l'elaborazione del linguaggio naturale e l'analisi di regressione.
Dati sintetici
Quando il volume di dati reali non è sufficiente per addestrare un modello IA, vengono generati artificialmente dati sintetici. Questi dati replicano tutte le caratteristiche e le proprietà statistiche di dati reali, simulando pattern, distribuzioni e strutture. Possono inoltre risolvere i problemi legati alla privacy, fornendo agli sviluppatori informazioni che non mettono a rischio i dati dei clienti. Secondo IDC, inoltre, possono "eliminare alcuni dei pregiudizi che derivano dall'addestramento svolto su piccole quantità di dati".
Tuttavia, la generazione di dati sintetici richiede grande attenzione per garantire che essi riproducano accuratamente le proprietà del set di dati originale. In caso contrario sussiste il rischio che il modello non produca decisioni o previsioni accurate.
Analisi delle serie temporali
Quando si raccogliere una sequenza di data point a intervalli regolari lungo un determinato arco di tempo, l'analisi delle serie temporali (o serie storiche) consente di individuare pattern, trend e strutture sottostanti. Le informazioni possono variare dai ricavi di un'azienda alla frequenza delle vendite. Si tratta di una tecnica ampiamente diffusa che consente alle organizzazioni di ricavare informazioni su andamenti e sviluppi e di prendere decisioni guidate dai dati, sia in retrospettiva, sia in previsione.
Dati di addestramento
Tutti i modelli IA partono da zero. Per cominciare a generare risultati, devono prima essere addestrati con dati che insegnino loro come operare. Alimentato con dati in ingresso, un modello è in grado di apprendere pattern, correlazioni e regole.
Tuttavia, la qualità, la quantità e la varietà dei dati di addestramento sono fondamentali. I dati sono le fondamenta su cui l'IA costruisce il proprio futuro; pertanto, se la quantità o la qualità dei dati è insufficiente, o se i dati presentano pregiudizi, il modello continuerà a generare gli stessi risultati nelle sue analisi. Per garantire la solidità dei modelli IA, ogni set di dati di addestramento deve essere diverso e rappresentativo.
Scenari ipotetici
Se stai cercando di ottenere determinati risultati dal modello IA, come fai a capire quali variabili devono essere modificate? Gli scenari ipotetici (what-if) hanno lo scopo di aumentare la trasparenza, la correttezza/imparzialità e l'affidabilità dell'IA esplorando gli esiti o le conseguenze potenziali di situazioni ipotetiche. Potrebbe essere una domanda semplice come "Che cosa succede se un fornitore chiave fallisce?", oppure un'ipotesi più fantasiosa come "Che cosa succede se il modello IA diventa senziente?". Indagando l'impatto di diverse variabili sul modello, è facile capirne i limiti e come renderlo più solido. Questo approccio aiuta le organizzazioni non solo a prendere decisioni più informate, ma anche ad assumersi maggiori responsabilità per i loro modelli.