Google rilascia una versione sperimentale aggiornata di Gemini 2.0 Flash Thinking per il testing

Di: Nastya Bobkova | 22.01.2025, 13:46
Google presenta Gemini 2.0 Flash Thinking: una nuova era del computing L'aggiornamento del modello Gemini 2.0 Flash Thinking di Google è disponibile per i test . Fonte: 9to5Google

A dicembre, Google ha annunciato il modello Gemini 2.0 Flash Thinking come il primo per il ragionamento logico, e ora la sua versione sperimentale aggiornata è disponibile per i test.

Ecco cosa sappiamo

Questo modello si basa su Flash 2.0, introdotto all'inizio del mese, e consente di "mostrare chiaramente il proprio ragionamento" (come in AI Studio). Questo migliora le prestazioni quando si risolvono problemi più complessi. È complementare ad altri modelli come gemini-2.0-flash-exp e gemini-exp-1206.

Caratteristiche principali di Gemini 2.0 Flash Thinking Experimental (gennaio 2025)

  • Finestra contestuale di 1 milione di token (su 32k): è comoda per chi vuole "inserire una codebase o richiedere un insieme di articoli con ragionamenti più complessi".
  • Supporto per l'esecuzione di codice in loco: per un migliore utilizzo dello strumento.
  • Generazione di token di output più elevata.
  • Minore frequenza di discrepanze del modello ("ridotta probabilità di contraddizione tra opinione e risposta").
  • Rispetto all'Exp 1219, la nuova versione dimostra "migliori prestazioni nei test di matematica, scienze e multimodali", tra cui il 73,3% nel test AIME2024 (matematica) e il 74,2% nel test GPQA Diamond (scienze).

L'amministratore delegato di DeepMind Demis Hasabis ha osservato che questo "rappresenta un progresso molto rapido dal nostro primo rilascio di dicembre". È stato sottolineato che hanno sviluppato sistemi di pianificazione di questo tipo per oltre un decennio, a partire da programmi come AlphaGo, e sono lieti di vedere una potente combinazione di queste idee con i modelli fondamentali più potenti.

Gemini 2.0 Flash Thinking Experimental è disponibile per la prova gratuita in Google AI Studio e tramite l'API. Sundar Pichai ha sottolineato che i progressi nel ragionamento scalare sono impressionanti e continueranno, e ha promesso ulteriori novità in futuro.

Fonte: 9to5Google