Auf der einführenden Google I/O-Keynote wird deutlich, dass man in Mountain View auch weiter Machine Learning und Künstliche Intelligenzen priorisiert.
In seinem Founder’s Letter kündigte Google-CEO Sundar Pichai letztes Jahr an, sein Unternehmen “will move from mobile first to an AI first world.” Was das konkret bedeutet, wurde auf der Google I/O-Keynote deutlich, wo Machine Learning in nahezu alle Produkte integriert wird.
Als Nutzer werden die Fortschritte, die mit diesen Techniken in den letzten Jahren erzielt wurden, besonders deutlich, wenn es um Sprach- und Bilderkennung geht. Für letztere hat man in Mountain View mit Google Lens nun eine neue Plattform geschaffen, die Computer Vision und Image Recognition in Produkten wie Fotos und Google Assistant verbessern kann. So wird man den Assistant in Zukunft einsetzen können, um Inhalte im Viewfinder zu übersetzen, also beispielsweise Wi-Fi-Logindaten direkt zu übernehmen oder Gebäude, Restaurants und Gegenstände zu erkennen und detaillierte Informationen abzufragen.
Um die nötige Rechenpower zu leisten, scheint Google mit den eigenen Cloud TPUs, Tensor Processing Units, gut aufgestellt – jede davon liefert bis zu 180 teraflops und lässt sich mit anderen Einheiten ebenso problemlos verbinden, wie mit bestehenden Intel-CPU- und Nvidia-GPU-Setups. Google.ai soll die Vorteile über die Google Cloud für alle bereitstellen und geht Hand in Hand mit dem “Learning to Learn”-Ansatz, der neurale Netzwerke einsetzt, um neurale Netzwerke zu entwerfen und zu optimieren.
Vor allem aber möchte man bei Google konkrete Anwendungsszenarien schaffen: Der Google Assistant, der demnächst auch aufs iPhone und dank dem neuen Assistant-SDK auf diverse andere Geräte kommt, ist ein Ergebnis davon – das Ziel ist hier schließlich eine kontextbasierte, umfangreiche Konversation unabhängig von der Hardware-Plattform. Aber auch in Google Fotos wird Machine Learning exzessiv eingesetzt, beispielsweise um Gesichter zu erkennen und bestimmten Personen zuzuordnen. In Zukunft schlägt die Anwendung dann automatisch vor, die Bilder mit diesen zu teilen und auch die neuen Shared Libraries sind darauf angewiesen, dass die Bilderkennung zuverlässig funktioniert.
Auf der Keynote heute Abend hat Sundar Pichai die Bewegung hin zu einer “AI-First”-Strategie nochmals betont und angesichts dessen, welchen Stellwert man Google Home und dem Assisstant einräumt wird deutlich, dass sein Unternehmen auch in diesem Jahr – und weit darüber hinaus – daran festhalten wird.