Ti sfido a riconoscere che è un AI

DeepSeek genera già profitti..

Nell’edizione di oggi:

  • 🤖 GPT-4.5 è il nuovo performante (e costoso) modello di OpenAI

  • 🗣️ Una voce AI che sembra umana

  • 🌎 Le barriere linguistiche hanno vita breve

  • 🤑 DeepSeek genera già profitti?

🗞️ Le notizie

1/

Disponibile già per gli utenti ChatGPT Pro e per gli sviluppatori via API, nei prossimi giorni sarà accessibile anche agli utenti Plus.

Le principali migliorie riguardano:

  • Interazioni più naturali: GPT-4.5 capisce meglio le intenzioni degli utenti e può rispondere con maggiore empatia e fluidità.

  • Maggiore precisione: riduce le "allucinazioni" e offre informazioni più affidabili su una vasta gamma di argomenti.

  • Scrittura e programmazione avanzate: eccelle nella revisione di testi, nella generazione di codice e nella risoluzione di problemi tecnici complessi.

  • Migliore gestione delle richieste complesse: supporta l’analisi di documenti e può eseguire compiti multi-step con maggiore efficacia.

Gli sviluppatori possono testarlo via API con funzioni avanzate come function calling, Structured Outputs e input visivi

Tuttavia, OpenAI avverte che GPT-4.5 è un modello molto costoso da eseguire e la sua disponibilità a lungo termine dipenderà dall’uso e dal feedback degli utenti.

2/

Guidato da Brendan Iribe e Ankit Kumar, il progetto mira a superare il limite delle attuali voci sintetiche, rendendole più espressive, naturali e contestuali. 

Il cuore della tecnologia è il Conversational Speech Model (CSM), un modello avanzato che utilizza il contesto della conversazione per modulare tono, ritmo ed emozioni in tempo reale.

A differenza dei classici sistemi di sintesi vocale, CSM non si limita a leggere testi, ma interpreta e adatta la propria voce in base alla situazione, migliorando l’interazione. 

I test dimostrano che, senza contesto, la voce AI è indistinguibile da quella umana, mentre con il contesto emergono ancora margini di miglioramento.

3/

Cohere ha presentato Aya Vision, un nuovo modello di AI capace di interpretare immagini e testo in 23 lingue, rendendo l’AI più accessibile a livello globale. 

Aya Vision può descrivere immagini, rispondere a domande visive e tradurre informazioni, aiutando le persone a comprendere meglio il mondo che le circonda.

Nonostante sia più piccolo, Aya Vision supera modelli molto più grandi, ottenendo risultati migliori in test di comprensione visiva e linguistica. 

Il modello è disponibile gratuitamente su WhatsApp, Kaggle e Hugging Face, permettendo a ricercatori e sviluppatori di utilizzarlo e migliorarlo.

🤑 Il finanziamento della settimana

Il finanziamento è stato guidato da ICONIQ Growth, con la partecipazione di Cherry Ventures, QED Investors, Portfolio Ventures e 9900 Capital.

Swap offre strumenti per le aziende di e-commerce, aiutandole a gestire le complessità del commercio transfrontaliero, comprese le tariffe doganali e la logistica. 

La piattaforma integra gestione delle spedizioni, logistica dei resi e riciclo dei prodotti, semplificando operazioni tradizionalmente frammentate.

I nuovi fondi saranno utilizzati per espandersi oltre il Regno Unito, con piani per entrare nei mercati di Europa, Stati Uniti, Australia e Canada.

🧠 Varie dal mondo dell’AI

📸 L’immagine della settimana

👨‍🔬 L’evoluzione umana secondo l’AI..

⚒️ Risorse utili

Un unico luogo, tutti i tool di cui hai bisogno. (link)

Come utilizzare Midjourney per generare immagini (link)

SnackPrompt - scopri i migliori prompt per Chat-GPT (link)

 🔮 I tool della settimana

Throws: Riassumi interi video e scopri quali sono le parti più interessanti

Pieces: La prima AI che ricorda tutto ciò su cui lavori

AdsRapido: Analizza le campagne pubblicitarie dei tuoi competitor in pochi secondi

Pietro Fiore - Esperto AI e founder.

Come hai trovato la newsletter di oggi?

I tuoi feedback mi aiutano a migliorare!

Login o Iscriviti per partecipare ai sondaggi.