Nachdem die Google I/O, welche sich hauptsächlich an Entwickler richtet, nun beendet ist bekommt ihr hier nochmal eine Übersicht einiger Highlights. Denn einige Punkte sind auch für normale User interessant.
Android O
Vitals:
Unter Vitals hat sich Google eine verbesserte Sicherheit, Optimierung des Betriebssystems (etwa Akkulaufzeit durch Einschränkung von Hintergrundaktivitäten) sowie bessere Entwickler-Tools zum Ziel gesetzt. Die Vitals zeigen an, wenn Apps nicht korrekt arbeiten.
Mit Google Play Protect hat der Play Store einen integrierten Virenscanner. Damit werden 50 Milliarden Apps pro Tag von Google unter die Lupe genommen. Mit Google Play Protect wird dieses Sicherheitsfeature nun für die User sichtbar gemacht, denn zuvor war dieses Feature in den Einstellungen versteckt. Die Optimierungen der Systemebene unter Android O führen dazu, dass Apps bis zu zweimal schneller ausgeführt werden. Für Entwickler sind neue Debugging-Funktionen in Android Studio integriert worden und der Support für die Programmiersprache Kotlin wurde ebenfalls ergänzt.
Fluid Experience
Eine weitere Neuerung bei Android O sind die Fluid Experiences.
- Hier kommt nun die Bild-im-Bild-Funktion, durch die man zwei Funktionen gleichzeitig nutzen kann, wie zum Beispiel den Kalender checken und gleichzeitig einen Videoanruf tätigen.
- Notification Dots: Diese zeigen Benachrichtigungen innerhalb von Apps (zum Beispiel einen Kommentar in Facebook) am App-Symbol an.
- Autofill: Dieses Feature füllt zum Beispiel Anmeldedaten bei Anwendungen aus, welche zuvor schon einmal auf einem anderen Gerät installiert und über Autofill synchronisiert wurden.
- Smart Text Selection: Verbessert die Copy- und Paste-Funktion und erkennt automatisch zusammenhängende Dinge (wie zum Beispiel Namen und Adressen).
Auch die Emojis erhalten unter Android O einen neuen Look.
Und für Entwickler ist nun bald eine erste Beta-Version von Android O verfügbar.
Standalone-VR-Headset mit WorldSense für Google Daydream
Die im letzten Jahr vorgestellte VR-Brille Google Daydream konnte nur genutzt werden, indem das Smartphone integriert wurde. Auf der diesjährigen I/O gibt es rund um die Daydream einige Neuigkeiten. So bringt LG sein nächstes Smartphone (LG V30) Daydream-fähig auf den Markt und auch Samsung wird mit dem Galaxy S8 und dem S8 Plus nach einem Update Daydream-fähig sein. Weiterhin hat Google in Zusammenarbeit mit HTC und Lenovo ein Standalone-VR-Headset entwickelt. Das heißt, dass die komplette Hardware im Headset integriert ist und somit ohne Kabel oder Smartphone auskommt. Weiterhin ist mit WorldSense eine Technologie für intelligentes Tracking für Bewegungen an Board.
Google Photos
Auch für Google Photos gibt es einige Neuerungen, welche vor allem das Sharing der Bilder vereinfachen sollen.
- Suggested Sharing: Mit dieser Funktion werden von Google automatische Vorschläge zu den erkannten Personen auf den fotografierten Bildern gemacht. Das Ganze funktioniert auch wieder über Machine Learning. Somit soll es einfacher werden, Fotos mit Personen zu teilen, welche sich auf den Bildern befinden.
- Shared Libraries: Mit Google Photos kann die eigene Foto-Bibliothek mit anderen geteilt werden. Die Teilung kann komplett mit verschiedenen Personen erfolgen, oder es können auch nur einzelne Bilder mit erkannten Personen geteilt werden. Somit können Familienfotos für mehrere Personen einsehbar werden.
- Photo Books: Mit Google Photos können nun Hardcover-Fotobücher erstellt und direkt aus der App heraus gedruckt werden. Google erstellt dabei das Design der Bücher selbständig mit den besten Bildern und spart auch hier nicht mit automatischen Vorschlägen. Die Option Photo Books startet aber zuerst in den USA. Weitere Länder sollen folgen.
Ebenfalls wird Google Lens in Google Photos integriert.
Google Lens
Mit Google Lens vereint Google das Machine Learning sowie Augmented Reality. Mit Google Lens können Nutzer zum Beispiel, wenn sie unterwegs sind, eine Sehenswürdigkeit oder ein Restaurant fotografieren. Google erkennt den Ort und gibt dann zusätzliche Informationen darüber. Das Ganze funktioniert über verschiedene Daten, welche schon durch Google Maps (Standort) und Google Photos (Gegenstände erkennen und sortieren) zur Verfügung stehen. Wann das neue Feature in Deutschland funktioniert ist allerdings noch nicht ersichtlich.
Google Home
Die Veröffentlichung von Google Home soll im Sommer 2017 in Deutschland erfolgen. Folgende Features sind bekannt:
- Proactive Assistance: Mit der Frage: “Was gibt´s?”, informiert Google Home den Nutzer über kommende Ereignisse anhand dessen Kalendereinträge. Die Infos erfolgen personalisiert. Sollte also ein weiterer registrierter Nutzer fragen, so wird dessen Terminkalender genutzt.
- Hands-free Calling: In den USA und Kanada sind kostenlose Festnetz- und Handyanrufe möglich. Die Funktion soll in den kommenden Monaten stufenweise ausgerollt werden.
- Größere Auswahl an Streaming-Diensten: Die Streaming Dienste Spotify Free, SoundCloud und Deezer sind nun für den Google Home verfügbar. Auch ein Bluetooth-Support, welcher per Software Update aktiviert wird, gehört nun dazu.
- Visuelle Antworten: Sofern der Nutzer Google Home nach einem Termin fragt kann nun die Route zum Termin direkt auf das Smartphone gesendet werden. Auch kann der Kalender auf dem Smart-TV eingeblendet werden oder dort das Wetter gecheckt werden.
Google Assistant
Google Assistant bekommt nun eine Verbesserung der Spracherkennung sowie im Bereich AI. Eine Spracherkennung im Erkennen unterschiedlicher Stimmen war schon gegeben, sodass der Nutzer auch individuelle Antworten bekam. Auch wurde der Assistant für iOs angekündigt und soll nun auch Texteingaben unterstützen. Mit Google Assistant SDK können andere Hersteller nun den Assistant in ihre Geräte einbauen. Ab Sommer werden außerdem Deutsch, Italienisch, Französisch sowie weitere Sprachen unterstützt. Auch die Apps für den Assistant, Google Actions genannt, sind dann auf anderen Plattformen verfügbar. Somit können Drittanbieter dem Assistant weitere Fähigkeiten beibringen.
Google.ai:
Dienste mit künstlicher Intelligenz sind nun gebündelt unter Google.ai. Über Rechenzentren sollen Machine-Learning-Prozesse neuronale Netze entstehen lassen, welche wiederum weitere eigene Netze bilden. Diese künstliche Intelligenz soll für Medizin und Wissenschaft (Pathologie und DNA-Forschung) sowie auch für den normalen Nutzer zur Verfügung stehen. So kann der Zeichen-Assistent AutoDraw schon heute aus dem Gekritzel des Nutzers ein Bild zaubern, indem er verschiedene Vorschläge liefert, was der Nutzer gemalt haben könnte.
