Che anno! La Google Cloud Platform nel 2017

La fine dell’anno offre opportunità per riflettere . . . e per fare liste. Visto che ci siamo lasciati da poco alle spalle il 2017, abbiamo pensato di rivedere alcuni degli annunci di prodotti, white paper e guide su Google Cloud Platform (GCP) più memorabili, in base alla loro popolarità con i nostri lettori.

Raccogliendo le informazioni per questo post, sono emersi alcuni chiari temi sui vostri interessi riguardo a GCP:

  1. Amate sentire parlare di infrastruttura avanzata: CPU, GPU, TPU e “tubature” migliori per la rete e più regioni. 
  2.  Il modo in cui finalizziamo la nostra infrastruttura sembra interessare costantemente, così come i suggerimenti su come utilizzare i servizi di sicurezza. 
  3.  L’open source è sempre molto apprezzato dal pubblico, soprattutto se presenta soluzioni cloud-native a un vecchio problema. 
  4.  Vi sentite ispirati dall’innovazione offerta da Google: tecnologie esclusive sviluppate per affrontare problemi interni sulla scala di Google. Quindi, senza ulteriori indugi, ecco a voi le storie più lette del 2017.

Infrastruttura all’avanguardia

Se credete nella teoria “più grande è, meglio è” per le infrastrutture cloud, allora quest’anno è stato il massimo per voi. All’inizio del 2017 abbiamo annunciato che la GCP sarebbe stata la prima a fornire nel cloud l’architettura Intel Skylake, le GPU per Compute Engine e Cloud Machine Learning sono divenute disponibili al pubblico e Shazam ha parlato del perché le GPU nel cloud hanno un loro senso. In primavera avete divorato un articolo sulle prestazioni delle TPU e un altro sul cluster di calcolo basato su cloud (allora) più grande. Non solo abbiamo annunciato altri nuovi modelli GPU, ma Compute Engine ha iniziato a offrire tipi di macchine con enormi 96 vCPU e 624 GB di memoria.

E se queste novità non hanno attirato la vostra attenzione, l’ha sicuramente fatto l’infrastruttura di rete Google Cloud. Avete letto avidamente argomenti come Espresso, la nostra architettura all’avanguardia, il Controllo della congestione TCP BBR e la maggiore latenza di Compute Engine con Andromeda 2.1. Vi sono piaciute anche le storie sulle nuove funzionalità di rete: Interconnessione dedicata, Livelli di servizi di rete e il singolare approccio di GCP a sneakernet: Transfer Appliance.

A cosa servono le grandi infrastrutture se non sappiamo dove metterle? Il 2017 è stato anche un anno di grande espansione geografica. Abbiamo iniziato l’anno con sei regioni e lo abbiamo concluso con 13, aggiungendo la Virginia del Nord, Singapore, Sydney, Londra, la Germania, Sao Paolo e Mumbai. Quest’anno siamo anche andati oltre i nostri confini terrestri e ci siamo espansi su Marte 😉

Sicurezza innanzitutto

Google ha sempre fatto tutto il possibile per proteggere la nostra infrastruttura e questo è stato l’anno in cui abbiamo discusso alcune di queste tecniche avanzate nella nostra famosa serie Security in plaintext. Ne elenchiamo alcune: 7 ways we harden our KVM hypervisor, Fuzzing PCI Express e Titan in depth.

Sono stati anche molto apprezzati i nuovi servizi di sicurezza GCP: Cloud Key Management e Certificati SSL gestiti per applicazioni App Engine. Avete anche preso a cuore un white paper sul modo di implementare BeyondCorp come alternativa più sicura alla VPN e il supporto delle Leggi sulla protezione dei dati GDPR europee per tutta la GCP.

Sviluppo aperto e ibrido

Pensando a GCP e all’open source, ci viene in mente Kubernetes. Abbiamo reso open source la piattaforma di gestione dei container nel 2014, ma quest’anno abbiamo dimostrato che GCP è la soluzione ottimale per eseguirla. È costantemente tra i primi servizi cloud a eseguire l’ultima versione (recentemente Kubernetes 1.8) e offre funzionalità di gestione avanzate pronte all’uso. A partire da quest’autunno è certificato come una distribuzione conforme Kubernetes e ha un nuovo nome: Google Kubernetes Engine.

Kubernetes è un primo passo indipendente dalla piattaforma verso il cloud. Di conseguenza, molti di voi si sono interessati a storie su Kubernetes e sui container in scenari ibridi. Basta pensare a Pivotal Container Service e al ruolo di Kubernetes nella nostra nuova partnership con Cisco. Molti sviluppatori sono rimasti colpiti da Cloud Container Builder, uno strumento autonomo per la creazione di immagini di container, indipendentemente da dove vengano poi distribuite.

Ma i nostri sforzi nell’ambito dell’open source non si sono limitati a Kubernetes, abbiamo anche dato un contributo significativo a Spinnaker 1.0 e a lanciare i progetti Istio e Grafeas. Anche la serie “Partnering on open source” ha avuto molto successo grazie anche a HashiCorp, Chef, Ansible e Puppet. Gli sviluppatori attenti alla disponibilità hanno apprezzato la missiva del team di Customer Reliability Engineering (CRE) sulle versioni canary e, con API design: Choosing between names and identifiers in URLs, il nostro team Apigee team ha introdotto un modo elegante di avere la proverbiale torta e mangiarsela pure.

Innovazione Google

Spanner di Google è leggendario nell’ambito dei database distribuiti, quindi molti di voi hanno apprezzato l’annuncio di Cloud Spanner e la discussione su come sfidi il Teorema della PAC. Avere un database scalabile che offre una forte coerenza e grandi prestazioni può davvero cambiare la concezione di ciò che è possibile, proprio come nel caso di Cloud IoT Core, la nostra piattaforma per connettere e gestire “cose” su larga scala. Invece i CRE mostrano come Google gestisce un evento imprevisto.

Il 2017 è stato anche l’anno in cui il machine learning è diventato accessibile. A chi opera con grandi set di dati, abbiamo mostrato come utilizzare Cloud Dataprep, Dataflow e BigQuery per pulire e organizzare i dati non strutturati. Abbiamo scoperto che non è necessario un PhD per imparare a usare TensorFlow e, per chi apprende visivamente, abbiamo spiegato come visualizzare una varietà di architetture di reti neurali con TensorFlow Playground. Un Developer Advocate di Google ha persino insegnato al figlio, che frequenta la scuola media, come applicare TensorFlow e l’algebra lineare di base al gioco di sasso-forbice-carta.

L’elaborazione del linguaggio naturale è divenuta un pilastro nelle applicazioni basate sul machine learning, eccone un esempio leggero e facilmente riconoscibile. Abbiamo anche lanciato l’API Video Intelligence e dimostrato come il Cloud Machine Learning Engine semplifichi il processo dell’addestramento di un rilevatore di oggetti personalizzati. I maker tra di voi hanno apprezzato molto il post su come aggiungere il machine learning ai progetti IoT con l’AIY Voice Kit di Google. Quando si dice l’accessibilità!

Infine vogliamo ringraziare tutti i nostri clienti, partner e lettori per la fedeltà e il sostegno dimostrati tutto l’anno. Continuate a seguirci anche questo anno. Se pensate che abbiamo avuto molto da dire nel 2017, non sapete cosa vi aspetta!