Presentazione di TensorFlow 1.5



Pubblicato da Laurence Moroney, Developer Advocate
Siamo felici di annunciare che TensorFlow 1.5 è ora disponibile per il pubblico! Installalo subito per ricevere molte nuove funzionalità che ci auguriamo ti saranno utili!

Eager Execution for TensorFlow

Innanzitutto Eager Execution for TensorFlow è ora disponibile in anteprima. Abbiamo ricevuto molti commenti sullo stile di programmazione di TensorFlow e su come gli sviluppatori vogliano davvero uno stile di programmazione imperativo e “define-by-run”. Grazie all’abilitazione di Eager Execution for TensorFlow, puoi eseguire le operazioni di TensorFlow immediatamente quando vengono chiamate da Python. In questo modo è più facile iniziare a usare TensorFlow e rendere la ricerca e lo sviluppo più intuitivi.

Ad esempio, pensa a un semplice calcolo come la moltiplicazione di matrici. Con TensorFlow ora si presenta così:

x = tf.placeholder(tf.float32, shape=[1, 1])
m = tf.matmul(x, x)

with tf.Session() as sess:
print(sess.run(m, feed_dict={x: [[2.]]}))

Invece abilitando Eager Execution for TensorFlow, si presenterà così:

x = [[2.]]
m = tf.matmul(x, x)

print(m)

Puoi trovare ulteriori informazioni su Eager Execution for TensorFlow qui (consulta la Guida utente utilizzando il link a fondo pagina e anche questa presentazione) e sui documenti relativi all’API qui.

TensorFlow Lite


L’Anteprima per sviluppatori di TensorFlow Lite fa parte della versione 1.5. TensorFlow Lite, la soluzione leggera di TensorFlow per dispositivi mobili ed embedded, consente di acquisire un modello TensorFlow addestrato e convertirlo in un file .tflite che può essere quindi eseguito su dispositivi mobili a bassa latenza. Pertanto l’addestramento non deve necessariamente avvenire sul dispositivo né quest’ultimo deve caricare i dati nel cloud per funzionare. Ad esempio, se desideri classificare un’immagine, è possibile implementare un modello addestrato sul dispositivo e la classificazione dell’immagine viene eseguita direttamente sul dispositivo.

TensorFlow Lite include un’app campione per iniziare subito. Questa app utilizza il modello MobileNet con 1001 categorie di immagini univoche. Riconosce un’immagine e la abbina a un numero di categorie, elencando le prime tre che riconosce. L’app è disponibile sia per Android che iOS.

Puoi trovare ulteriori informazioni su TensorFlow Lite e su come convertire i tuoi modelli per renderli disponibili sui dispositivi mobili qui.

Aggiornamenti sull’accelerazione GPU

Per chi utilizza l’accelerazione GPU su Windows o Linux, TensorFlow 1.5 ora offre il supporto integrato per CUDA 9 e cuDNN 7.

Per saperne di più sulla Compute Unified Device Architecture (CUDA) 9 di NVidia, vai a vedere il sito di NVidia qui.

Questa viene potenziata dalla CUDA Deep Neural Network Library (cuDNN), che è l’ultima versione, ossia la 7. Il suo supporto è ora incluso in TensorFlow 1.5.

Riportiamo alcuni articoli di Medium sul supporto GPU per Windows e Linux e su come installarli sulla tua workstation (se supporta l’hardware richiesto).

Aggiornamenti sul sito della documentazione

In linea con questa versione, abbiamo anche aggiornato il sito della documentazione, incluso un flusso migliorato su come iniziare che ti consentirà di passare da zero alla creazione di una rete neurale (anche se non hai nessuna conoscenza precedente) per classificare i diversi tipi di iris in un tempo molto breve. Vieni a vederlo!

Altri miglioramenti

Oltre a queste funzionalità, sono stati apportati parecchi altri miglioramenti all’Accelerated Linear Algebra (XLA), aggiornamenti a RunConfig e molto di più. Ecco le note sulla versione.

Installazione di TensorFlow 1.5

Per ottenere TensorFlow 1.5, puoi utilizzare l’installazione pip standard (o pip3 se usi python3):

$  pip install --ignore-installed --upgrade tensorflow