Il software di intelligenza artificiale per il rilevamento di anomalie, Argus, analizza i dati dei social media per prevedere le narrazioni emergenti e generare rapporti di intelligence a una velocità e su una scala che consentono alle forze militari di neutralizzare le minacce di disinformazione virale.
New York, NY, 29 agosto 2023 – Accrete AI , una delle principali società di intelligenza artificiale aziendale a duplice uso, ha implementato il suo software di intelligenza artificiale per il rilevamento delle minacce open source, Argus , con il Dipartimento della Difesa degli Stati Uniti nel 2022 . Oggi, Accrete è lieta di annunciare di essersi aggiudicata un nuovo contratto da parte del Comando delle operazioni speciali degli Stati Uniti (USSOCOM) per l'implementazione di Argus per consentire agli analisti di intelligence e agli operatori speciali dell'USSOCOM di prevedere le minacce di disinformazione in tempo reale provenienti dai social media.
"I media sintetici, comprese le narrazioni virali generate dall'intelligenza artificiale, i deep fake e altre applicazioni dannose dell'intelligenza artificiale basate sui social media, rappresentano una seria minaccia per la sicurezza nazionale e la società civile degli Stati Uniti", ha affermato Prashant Bhuyan, fondatore e CEO di Accrete. "I social media sono ampiamente riconosciuti come un ambiente non regolamentato in cui gli avversari sfruttano abitualmente le vulnerabilità del ragionamento e manipolano il comportamento attraverso la diffusione intenzionale di disinformazione. L'USSOCOM è in prima linea nel riconoscere la necessità fondamentale di identificare e prevedere analiticamente le narrazioni sui social media in una fase embrionale prima che tali narrazioni si evolvano e guadagnino terreno. Accrete è orgogliosa di sostenere la missione di USSOCOM".
Entro la fine dell'anno Accrete lancerà anche una versione aziendale di Argus Social per il rilevamento delle minacce di disinformazione denominata Nebula Social. Nebula Social affronterà i punti critici urgenti dei clienti relativi ai media sintetici generati dall'intelligenza artificiale, compreso l'aumento del rischio derivante dalla disinformazione virale e dai deep fake. La gestione del rischio dei media sintetici generato dall'intelligenza artificiale richiede un agente di intelligenza artificiale in grado di apprendere autonomamente ciò che è più importante per un'impresa e di prevedere le narrazioni emergenti più rilevanti sui social media attraverso modalità, tra cui linguaggio, immagini, video e audio, prima che influenzino il comportamento.
Nebula Social non mira solo ad aiutare i clienti aziendali a gestire il rischio dei media sintetici, come le campagne diffamatorie generate dall'intelligenza artificiale da parte della concorrenza, ma anche a generare autonomamente contenuti tempestivi e pertinenti che abbinano le narrazioni emergenti più influenti a un pubblico autenticamente coinvolto per promuovere un'innovazione di prodotto più efficiente. e strategie di go-to-market. Nebula Social ha il potenziale per espandere in modo significativo il mercato tradizionale dell'ascolto sociale, saziando la domanda latente delle imprese per strumenti di social media più intelligenti e predittivi per una varietà di casi d'uso, tra cui gestione delle crisi, innovazione di prodotto, reclutamento, marketing e strategia politica.
Secondo Bhuyan, "sia le agenzie governative che le imprese hanno un urgente bisogno di gestire una pletora di rischi e opportunità posti dai media sintetici generati dall'intelligenza artificiale". Bhuyan prosegue affermando: "Le aziende stanno già subendo danni economici significativi causati dalla diffusione della disinformazione virale generata dall'intelligenza artificiale e da falsi falsi prodotti da concorrenti, dipendenti scontenti e altri tipi di avversari. Riteniamo che il mercato dell'intelligenza artificiale in grado di prevedere e neutralizzare i media sintetici maligni generati dall'intelligenza artificiale stia per esplodere".