LLM e intelligenza artificiale generativa hanno un ruolo importante nelle pratiche MLOps
CasaCasa > Blog > LLM e intelligenza artificiale generativa hanno un ruolo importante nelle pratiche MLOps

LLM e intelligenza artificiale generativa hanno un ruolo importante nelle pratiche MLOps

Sep 23, 2023

Articoli / Analisi

Le esigenze specifiche per lo sviluppo dell’intelligenza artificiale (AI) hanno dato vita a pratiche MLOps su misura per la creazione e l’implementazione di modelli di apprendimento automatico. Sempre in continuo cambiamento, queste pratiche potrebbero essere destinate a un ulteriore cambiamento, poiché l’intelligenza artificiale generativa e i modelli LLM (Large Language Models) alimentano nuove applicazioni.

Quando in passato si sono verificate scoperte rivoluzionarie nei modelli di machine learning (ML), la notizia era limitata a piccole comunità di specialisti di intelligenza artificiale. Il database di riconoscimento degli oggetti Image Net nel 2012 e l’architettura neurale Transformer descritta nel 2017 da Google hanno rappresentato piccole increspature nella coscienza tecnologica.

Non così con ChatGPT. Ha fatto scalpore in tutto il mondo quando è stato aggiunto a Bing e al browser Edge. I dirigenti di alto livello hanno dovuto prenderne atto poiché l’intelligenza artificiale generativa, i LLM e i modelli di base sembravano puntare a innovazioni significative. L’intelligenza artificiale generativa preannuncia nuove forme di interazione con chatbot, sintesi e generazione di contenuti, generazione di codici software e molto altro ancora.

La società di consulenza Deloitte afferma che l’intelligenza artificiale generativa sta creando un’ondata di disruption. Ben il 55% degli intervistati in un sondaggio Deloitte/Forbes del 2023 condotto su 143 CEO sta valutando o sperimentando l’intelligenza artificiale generativa.

Nel frattempo, il 79% concorda sul fatto che l’intelligenza artificiale generativa aumenterà l’efficienza e il 52% degli intervistati ritiene che aumenterà le opportunità di crescita. Deloitte ha affermato che il 37% degli intervistati sta già implementando in una certa misura l’intelligenza artificiale generativa.

La corsa verso gli LLM e la necessità di strumenti di sviluppo ML di prim'ordine hanno accelerato le acquisizioni nello spazio ML Ops. Alcuni spettatori stanno iniziando a distinguere anche lo “spazio LLM Ops”.

Molti vedono questi tipi di acquisti come giochi di acquisizione di talenti, evidenziando i problemi di competenze che oscurano le prospettive dell’intelligenza artificiale generativa.

I team ora lavorano per domare la nuova tecnologia sia in modalità di formazione che in modalità di inferenza. Gli LLM al centro delle innovazioni dell'intelligenza artificiale generativa richiedono architetture hardware e software su larga scala che supportino il calcolo distribuito. Le risorse di memoria e di elaborazione devono essere ottimizzate per ridurre la latenza nell’interazione uomo-macchina. Tutto ciò si traduce rapidamente in costi che ostacolano alcuni progetti promettenti.

Inoltre, gli LLM si nutrono di dati formativi prodigiosi, che vanno curati e governati. L'output LLM può essere instabile; a volte, gli sviluppatori si affidano al prompt engineering iterativo, interrogando ripetutamente il modello, quindi riflettendo sulla natura casuale delle risposte man mano che arrivano. Tuttavia, sviluppatori e fornitori indipendenti di tutte le dimensioni vedono percorsi per risolvere i problemi.

"I modelli linguistici di grandi dimensioni sono sorprendenti nel ragionamento generale, ma sono estremamente fragili", ha affermato Shreya Rajpal, che ha parlato al recente Databricks Data and AI Summit 2023. "Ottenere risultati corretti da modelli linguistici di grandi dimensioni è difficile".

"Quando lo si amplia, non ci sono garanzie che funzioni come previsto", ha detto ai partecipanti al Data e AI Summit.

Rajpal è un ex ingegnere senior di Apple ML e ora fondatore della start-up Guardrails AI, che crea software per garantire meglio la qualità degli output LLM.

Poiché gli LLM vengono applicati per usi aziendali, dove la correttezza è fondamentale, secondo Rajpal esiste un forte bisogno di convalidare l'input. La convalida ruota attorno alle strutture e ai tipi linguistici, al controllo del linguaggio volgare o alla lunghezza delle risposte e molto altro ancora. Presso Guardrails AI, Rajpal persegue strumenti di verifica nel tentativo di garantire meglio la qualità dei risultati LLM.

La tecnologia dei container continua a favorire lo sviluppo automatizzato del machine learning. Promuovono la collaborazione vitale tra data scientist e operazioni. Le sfide uniche dei LLM richiederanno una migliore gestione dei contenitori, secondo Josh Poduska, capo scienziato dei dati sul campo presso Domino Data Lab, che ha affinato le competenze di analisi per diversi clienti Fortune 100 sin dal suo inizio nel 2013.

“La scienza dei dati oggi si basa in gran parte sui contenitori. A livello aziendale svolgono un ruolo enorme nel costruire le basi di una piattaforma di data science. Gli LLM richiedono un tipo di contenitore diverso rispetto al tradizionale apprendimento automatico e ciò pone nuovi requisiti sui framework di gestione dei contenitori che supportano una migliore collaborazione, per una migliore riproducibilità”, ha indicato.