Dal lancio della nuova versione di chiacchierata Lo scorso marzo, gli agenti conversazionali (altrimenti noti come chatbot) hanno fatto notizia. L’IA generativa, considerata una tecnologia entusiasmante, offre a consumatori e sviluppatori infinite possibilità.
Tutti attenti, le aziende che lo utilizzano devono assicurarsi di rispettare le buone pratiche in termini di sicurezza e riservatezza dei dati.
Il 13 marzo 2023 è stata rilasciata la nuova versione di ChatGPT. Il suo lancio getta più luce sul mondo dell’intelligenza artificiale. Ma altri prodotti che utilizzano i chatbot fanno già parte del panorama digitale o sono in fase di sviluppo.
In un blog intitolato Domani succede oggi ” scritto da Celenteuna società di ricerca e consulenza focalizzata sulla tecnologia, elenchiamo tutti i prodotti a beneficio dei consumatori.
Concentrati su diversi chatbot
In questo mondo digitale in continua evoluzione, l’IA generativa è una tecnologia che si è affermata in vari settori. aziende come IA apertaE MicrosoftE GoogleE meta E umanità Fornire potenti modelli di linguaggio che soddisfano le esigenze di sviluppatori, consumatori e persino istituti finanziari per accelerare le loro operazioni. Questi diversi chatbot vengono setacciati da Celent.
- IA aperta OpenAi è veloce, lanciando GPT 4 a marzo, appena quattro mesi dopo il lancio di ChatGPT nel novembre 2022. Da allora, il suo chatbot è stato utilizzato da milioni di utenti. I requisiti sono vari, dalla scrittura di canzoni ai codec. Nella sua nuova versione, GPT 4, il limite di parole aumenta a 25.000 invece di 3.000 nella versione attuale. In termini di richieste di contenuti non autorizzati e risposte fattuali, “GPT 4 ha l’82% in meno di probabilità di rispondere a richieste su contenuti proibiti e il 40% in più di probabilità di produrre risposte fattuali rispetto a GPT 3.5 nelle nostre valutazioni interne”, ha affermato OpenAI.
Tuttavia, per ora fai attenzione, perché il rilascio di GPT 3.5 si basa solo su informazioni che erano su Internet fino al 2021. Il gigante dell’IA è pieno di risorse e sta già collaborando con bing A Microsoft Alimentando la propria piattaforma di motori di ricerca. Quest’ultimo ha investito 10 miliardi di dollari in OpenAI.
- bing A Microsoft: un motore di ricerca di base che ha un’ottima idea di utilizzare l’intelligenza artificiale con un’esperienza di conversazione. Gli utenti si rivolgono direttamente al motore di ricerca come se fosse una “normale” conversazione. Come afferma Bing nella sua guida per l’utente, “Utilizzare il nuovo Bing è come avere un assistente di ricerca, un pianificatore personale e un partner creativo al tuo fianco ogni volta che effettui ricerche sul Web”.
La collaborazione tra Bing e GPT 4 va oltre: le due aziende hanno annunciato che GPT 4 è ora disponibile in anteprima su Servizio Azure OpenAI Include prezzi basati su token, che sono entrati in vigore il 1° aprile. Copilota Microsoft 365 , attualmente in fase di test con 20 client, dovrebbe essere lanciato tra pochi mesi. Secondo Microsoft, GPT 4 fornisce un’eccellente forza di crittografia e misure di sicurezza per garantire che il contenuto generato sia appropriato e sicuro. Un fattore positivo con le aziende che Microsoft è orgogliosa di evidenziare.
- Modello di linguaggio dei percorsi API (PaLM) A Google: Annunciato nell’aprile 2022, Google, a sua volta, ha rivelato nuove funzionalità attraverso l’uso dell’intelligenza artificiale. PaLM è un sistema flessibile in grado di eseguire tutti i tipi di attività di creazione e modifica del testo. Quindi puoi addestrare PaLM a diventare un chatbot come ChatGPT. Inoltre, il motore di ricerca non esita a evidenziare: “Incontra Bard: il tuo assistente creativo e utile, lì per stimolare la tua immaginazione, aumentare la tua produttività e dare vita alle tue idee”.
Al di fuori del chatbot, Google sta lanciando un nuovo strumento chiamato Market Suite Il suo servizio modella le 1.000 lingue più parlate al mondo. Un modo rapido, efficiente e sicuro per creare modelli linguistici, progettare progetti o generare dati sintetici. “Utilizzando MarketSuite, sarai in grado di ripetere i prompt, aumentare la tua raccolta di informazioni con dati sintetici e modificare facilmente i moduli personalizzati”, afferma la società. Oltre a queste funzionalità, Google insiste sul fatto che la sicurezza e la privacy sono la sua massima priorità non rivelando alcun dettaglio tecnico.
- Meta LLM “light” (Large Language Forms) : meta(in precedenza FB) ha presentato un nuovo LLM “leggero” alla fine di febbraio, LAMA-13BChe può essere eseguito su una singola GPU (schede grafiche video) e quindi di facile accesso. L’obiettivo dell’azienda è “democratizzare maggiormente l’accesso”. I ricercatori di intelligenza artificiale che desiderano testare questo modello devono compilare un modulo per ricevere il codice completo e i dati di addestramento. In effetti, Meta LLM è più tecnico del nuovo ChatGPT o Bing, perché richiede molto lavoro per farlo funzionare. Si noti che Meta LLM non è un agente conversazionale, ma uno strumento di ricerca per risolvere alcuni dei problemi causati dai modelli linguistici AI.
- umanitàpiede Claudio: Claude è un assistente AI di nuova generazione basato su Anthropic Research. Quest’ultimo, essendo il partner cloud di Google, è stato avviato da due ex dipendenti di OpenAI. Con le sue caratteristiche, Claude è in grado di eseguire una varietà di attività di conversazione e di elaborazione testi. Uno dei principali partner AI, QuoraOffre Cloud agli utenti tramite la sua app padre. Secondo il direttore delle risorse umane di Poe, “Gli utenti descrivono le risposte di Claude come dettagliate e facili da capire, e amano che gli scambi sembrino una conversazione naturale”.
Collaboratore aziendale
L’intelligenza artificiale sta rivoluzionando il settore assicurativo. Le compagnie assicurative utilizzano l’intelligenza artificiale per fornire servizi personalizzati ed efficienti ai propri clienti. È così che AI diventa un “nuovo collaboratore” aiutando le compagnie assicurative a migliorare i propri servizi e a ridurre i propri costi.
L’intelligenza artificiale facilita l’esperienza del cliente offrendo prodotti che si adattano alle loro situazioni e si rinnovano automaticamente ogni anno in base alle loro abitudini comportamentali.
L’utilizzo dell’intelligenza artificiale va oltre: grazie alla sua conoscenza può prevedere eventi futuri (alluvioni, erosione di una parte o percezione di pericolo) e questo basandosi sulle immagini inviate dall’assicurato. Questo processo rende più facile per gli assicuratori effettuare una valutazione quasi istantanea tramite l’uso di un chatbot. Un modello che consente alle compagnie assicurative di concentrarsi maggiormente sugli aspetti più importanti del loro business.
Altri settori di attività stanno già utilizzando l’intelligenza artificiale nel modo in cui fanno affari. Celent elenca due aziende che hanno imparato a lavorare con GPT 4:
- la società nastroConosciuta come piattaforma di elaborazione dei pagamenti online, non esita a utilizzare le sue competenze GPT 4 all’interno della sua azienda. Questo nuovo modello di business ha permesso loro di migliorare l’esperienza degli sviluppatori e ridurre il rischio di frode. “GPT 4 è un punto di svolta. Ha aperto molte aree e ci ha fatto capire che ci sono tutti questi problemi che possono essere risolti con GPT 4”, afferma il product manager di Stripe.
- compagnia Morgan Stanley, una delle principali società di gestione patrimoniale, sta creando molti documenti con un’enorme fonte di informazioni ospitate internamente su diversi siti web. Un modus operandi che non sempre facilita il reperimento rapido delle informazioni da parte dei consulenti. Utilizzando il nostro chatbot GPT 4, i gestori patrimoniali possono finalmente individuare rapidamente le informazioni rilevanti, comprese quelle incorporate nei documenti PDF. “Oggi, più di 200 dipendenti al giorno interrogano il sistema e forniscono feedback. Questo sforzo arricchirà il rapporto tra i consulenti di Morgan Stanley e i loro clienti, consentendo loro di aiutare più persone rapidamente”, ha affermato un consulente finanziario senior di Morgan Stanley.
L’intelligenza artificiale dovrebbe essere presa con le pinze
Come menzionato sul blog di Celent con alcuni esempi, la divulgazione di informazioni deve essere monitorata tramite l’IA. Inoltre, ci sono alcuni leak e Meta ne ha pagato lo scotto a marzo, quando è stato lanciato LLM.
Il modulo è stato pubblicato su uno dei forum più popolari su Internet, 4chan, che ha reso disponibile il download del sistema. Ha moltiplicato e acceso il dibattito sul modo corretto di condividere le ultime ricerche in un momento di rapido cambiamento tecnologico. Alcuni sostengono che la fuga di notizie avrebbe conseguenze preoccupanti e incolpano Meta per aver distribuito la tecnologia troppo liberamente.
Da parte sua, Chat GPT 4 dovrebbe essere usato con cautela e OpenAI avverte che il nuovo chatbot non è del tutto affidabile e può “allucinare”, un fenomeno in cui l’IA inventa fatti o commette errori di ragionamento.
Inoltre, con la rivelazione delle nuove funzionalità di GPT 4, la notizia ha suscitato molto interesse nel mondo e destato preoccupazione per il ritmo di sviluppo dell’intelligenza artificiale. Per questo motivo, è stata richiesta una pausa sui sistemi IA potenzialmente più potenti di GPT 4. Al momento non esiste GPT 5!
Discussione il 13 aprile
Il Damage Insurance Day, che si terrà giovedì prossimo, 13 aprile al Palais des Congrès di Montreal, sarà l’occasione per ascoltare esperti che parleranno dell’uso dell’intelligenza artificiale nel settore assicurativo.
Saranno inclusi altri argomenti importanti, come il mercato dei rischi elettronici, la preparazione alla vendita di una pratica o le soluzioni ai danni causati dall’acqua.
Tieni presente che il replay sarà disponibile in un filePortale assicurativoDopo alcuni giorni di attività.