Nella sua serie di annunci sull’intelligenza artificiale generativa, AWS dà priorità al servizio clienti

Nella sua serie di annunci sull’intelligenza artificiale generativa, AWS dà priorità al servizio clienti
Nella sua serie di annunci sull’intelligenza artificiale generativa, AWS dà priorità al servizio clienti
-

È il ritorno del grande mass annuale di Amazon Web Services, re:Invent. Come al solito, il gigante del cloud aumenta i suoi annunci, anche se ciò significa confondere un po’ i suoi utenti e appassionati. Atteso a turno, ha annunciato numerose innovazioni nel campo dell’intelligenza artificiale. A cominciare dalla parte hardware con l’introduzione di nuovi componenti del data center, che dovrebbero fornire il 12% in più di potenza di calcolo, migliorando al contempo l’efficienza energetica e la flessibilità per i carichi di lavoro legati all’intelligenza artificiale.

Per la cronaca, AWS costruisce data center iperscalabili da 18 anni e server basati su GPU per carichi di lavoro IA da 13 anni. Oggi occupati da migliaia di clienti, questi data center (distribuiti in 34 regioni per 108 zone di disponibilità) si trovano al centro di un nuovo tipo di battaglia: infatti, mentre l’uso dell’intelligenza artificiale generativa continua a crescere e man mano che le richieste di capacità GPU aumento, i data center AWS devono adattarsi per supportare densità di potenza sempre più elevate.

Raffreddamento a liquido adattato ai server AI e design del rack rivisto

Nel dettaglio, questi miglioramenti chiave includono una progettazione elettrica e meccanica semplificata per un’elevata disponibilità. Ad esempio, AWS ha semplificato la distribuzione dell’energia e, così facendo, ha ridotto il numero di potenziali punti di guasto del 20%. Altre modifiche dovrebbero essere notate in termini di raffreddamento a liquido implementato per i più recenti server AI: “I sistemi di raffreddamento aggiornati integreranno perfettamente le capacità di raffreddamento ad aria e a liquido per i chipset AI più potenti, come AWS Trainium2 e soluzioni di supercalcolo AI su scala rack come GB200 NVL72, nonché switch di rete e server di storage di AWS.

Il colosso ha anche lavorato su altre modifiche alla progettazione dei rack e ai sistemi di controllo, consentendo ad AWS di supportare un aumento di 6 volte della densità di potenza dei rack nei prossimi due anni e un ulteriore aumento di 3 volte in futuro. Ciò è in parte ottenuto grazie a un nuovo scaffale di alimentazione, che distribuisce in modo efficiente l’energia del data center in tutto il rack, riducendo le perdite di conversione dell’energia.

Dopo l’hardware, Amazon punta tutto sul software

Oltre agli annunci hardware, l’azienda si è concentrata sulle innovazioni software, in particolare quelle rivolte a un’area particolare: il servizio clienti. Amazon Connect, il suo strumento di contact center omnicanale disponibile nel cloud, beneficia di una serie di aggiornamenti, integrando innanzitutto l’intelligenza artificiale generativa.

Si va dalla segmentazione dei clienti basata sull’intelligenza artificiale generativa per campagne mirate alla messaggistica nativa di WhatsApp Business per il supporto omnicanale, alla raccolta sicura di dati sensibili dei clienti nelle interazioni in chat o persino alla gestione semplificata dell’intelligenza artificiale conversazionale nell’interfaccia Connect e ai nuovi miglioramenti a Q , l’assistente AI dell’azienda, in Connect.

Amazon Q, beniamino dell’azienda e rivale del Copilot di Microsoft

L’azienda cerca di rendere la creazione di robot AI conversazionali il più semplice possibile per i suoi utenti. Ora, con Amazon Q in Connect, è possibile creare, modificare e gestire bot AI conversazionali basati su Amazon Lex (il suo generatore di chatbot) direttamente nell’interfaccia web di Connect. Ciò include il supporto delle interazioni self-service dei clienti attraverso la risposta vocale interattiva (IVR) e i canali digitali, oltre ad assistere gli agenti del contact center con risposte e azioni consigliate.

Il sistema è in grado di ricercare in modo intelligente basi di conoscenza configurate, informazioni sui clienti, contenuti web e dati di applicazioni di terze parti per rispondere alle domande dei clienti quando non corrispondono agli intenti predefiniti. A prova del suo desiderio di integrazione con altri sistemi, Amazon ha addirittura annunciato che integrerà nativamente i canali digitali e la consegna unificata del suo strumento Connect in Salesforce CRM.

Per i clienti aziendali, ciò consente un unico sistema di routing e flusso di lavoro per i canali di entrambe le aziende, indirizzando facilmente chiamate, chat e casi all’interazione self-service o all’agente appropriato. Attualmente è disponibile solo una versione di anteprima.

La sicurezza non viene tralasciata, con gli amministratori in grado di impostare guardrail personalizzati per la propria istanza, impostando restrizioni sulla generazione di risposte e monitorando le prestazioni di Amazon Q in Connect. Con questo aggiornamento, Amazon entra nel tema delle funzionalità di conversazione avanzate basate sui LLM. Ormai è chiaro: l’azienda di Seattle è pronta ad affrontare Microsoft e il suo famoso Copilot. Il colosso di Redmond ha infatti svelato un’ulteriore suite di agenti AI per Copilot in Microsoft 365 durante la conferenza Ignite di fine novembre.

Gli utenti di tutti i settori si affidano al portafoglio AWS

Quale modo migliore per dimostrare ai tuoi clienti l’efficacia di una soluzione se non la testimonianza di un altro cliente? Applicando questo principio, AWS presenta Midea, azienda cinese specializzata nella produzione di elettrodomestici e condizionatori, che utilizza Amazon Connect e servizi di intelligenza artificiale generativa per costruire contact center più efficienti e migliorare l’esperienza dei clienti.

L’azienda ha implementato la soluzione in 14 paesi e regioni in tutto il mondo in cui opera con tempi di implementazione ridotti da diversi mesi a poche settimane. L’azienda ora segnala anche riduzioni di circa il 30% dei costi operativi. Si integra con le più recenti funzionalità GenAI integrate di Amazon Connect, tra cui Lex, Q e Connect Contact Lens all’interno dei suoi call center.

Da parte sua, Wiwynn, produttore leader di dispositivi di elaborazione e archiviazione per data center, utilizza AWS Outposts per ridurre i tempi di distribuzione del 90% e ridurre i costi di capitale. In precedenza, l’implementazione del sistema di automazione della produzione e di gestione del magazzino di una nuova fabbrica richiedeva in genere 10 settimane in totale, compresa l’installazione dell’hardware, il provisioning delle risorse e l’implementazione del punto di accesso.

Con Outposts, Wiwynn dice di aver impiegato solo una settimana per tutto questo. Un’efficienza che, sul lungo termine, si traduce in un altro dato chiave: Wiwynn è stata in grado di consegnare ambienti di produzione 10 mesi prima del previsto, un indicatore chiave per il futuro dell’Industria 4.0.

Selezionato per te

-

PREV SMEIA-BMW è ancora una volta Trasportatore Ufficiale della FIFM
NEXT Il software di assistenza alla scrittura Antidote lancia un gioco!