Google hatte Anfang der Woche ein KI-Event angekündigt, in dem es rund um künstliche Intelligenz und die Google Suche gehen sollte. Das Livestream-Event fand gestern aus der Niederlassung in Paris statt.
Google Lens
Google Lens Multisearch wurde bereits im Mai letzten Jahres angekündigt.
In den kommenden Monaten können Nutzer weltweit mit Lens ihren „Bildschirm durchsuchen“. Es ist dann möglich, auf Webseiten und Apps (Messenger, Video-App u.a.) zu suchen, was auf den Bildern vorhanden ist, ohne die App zu verlassen.

Erhältst du zum Beispiel per Messenger ein Video und möchtest mehr über die gezeigten Wahrzeichen im Hintergrund erfahren, drückst du einfach lange auf den Power-Button oder die Home-Taste (oder Wischgeste), um den Assistant aufzurufen. Anschließend tippst du auf Bildschirmsuche, um das Wahrzeichen zu identifizieren.
Auch weitere Punkte in dem Video können so über den Assistant gesucht und gefunden werden.
Die Suchmöglichkeiten können des Weiteren miteinander kombiniert werden: Text, Sprache, Bilder und mehr. Die Kombi-Suche ist ab sofort in den Google-Apps für iOS- und Android-Geräte weltweit in allen Sprachen und Ländern nutzbar, in denen Google Lens verfügbar ist.
Die Kombi-Suche in 5 Schritten
- Um loszulegen, öffnet die Google App und tippt auf das Lens-Symbol in der Suchleiste.
- Mit der Google Lens-Funktion könnt ihr direkt mit eurer Smartphone-Kamera suchen – entweder, indem ihr direkt ein Foto von dem macht, was ihr vor euch seht oder ein bereits bestehendes Bild / Screenshot öffnet.
- Wenn ihr das Bild via Google Lens gemacht oder das Bild / den Screenshot über Google Lens öffnet, habt ihr auch die Möglichkeit, die Suche auf einen bestimmten Ausschnitt einzugrenzen, indem ihr den Suchbereich auf dem Bildschirm markiert oder verschiebt.
- Im nächsten Schritt könnt ihr hochwischen, um zu den Suchergebnissen zu gelangen und mit ihnen zu interagieren.
- Mit der Option „+ Deiner Suche hinzufügen“ könnt ihr in der Suchleiste die Suchanfrage um weitere Details wie Suchbegriffe oder Fragestellungen ergänzen, um die Suche zu verfeinern.
Die Kombi-Suche wurde weiter ausgebaut, indem sie über eine lokale Komponente ergänzt wurde. Du machst ein Foto von deinem Lieblingsessen und kannst dir über die Google App „in meiner Nähe“ lokale Restaurants anzeigen lassen, welche genau dieses Gericht auf der Karte haben. Diese Funktion ist derzeit in den USA auf Englisch verfügbar und wird in den kommenden Monaten weltweit ausgerollt.
Ebenfalls kannst du über Google nach „Ideen für dein Wohnzimmer“ suchen. Entdeckst du in den Suchergebnissen ein Möbelstück, das dir gefällt, möchtest es aber in einer anderen Form oder Farbe, so kannst du in der Kombi-Suche das Wort Rechteck oder die Farbe hinzufügen, um das Möbelstück in einem anderen Stil zu finden.

Google Translate
Google Translate bietet mehr anpassbare Funktionen, neue kontextbezogene Übersetzungsoptionen und ein neues Design (erweiterte Fläche für die Texteingabe sowie leichter zugängliche Einstiegspunkte für die Übersetzung von Dialogen, die Spracheingabe und die Übersetzung mit der Lens Kamera).
Ab diesem Monat bietet der Übersetzer mehr kontextbezogene Übersetzungsoptionen an, mit Beschreibungen und verschiedenen Beispielen in der gewünschten Zielsprache. Egal, ob du die passende Erde für deine Zimmerpflanze suchst oder deinem Kind die Erde zeigen möchtest: Google Translate bietet den Kontext, den du brauchst, um je nach Absicht die richtigen Ausdrücke, lokalen Redewendungen oder passenden Wörter zu übersetzen und zu verwenden. In den kommenden Wochen wird diese Neuerung in den Sprachen Englisch, Französisch, Deutsch, Japanisch und Spanisch eingeführt

Google Maps
Google Maps Immersive View ist jetzt in ausgewählten Städten verfügbar. Die immersive Ansicht ist eine völlig neue Art, einen Ort zu erkunden – sie gibt dir das Gefühl, direkt dort zu sein. Mithilfe von Fortschritten in KI und maschinellem Sehen verschmilzt die immersive Ansicht Milliarden von Street View- und Luftaufnahmen, um ein detailliertes, digitales Modell der Welt zu erstellen. Darüber hinaus werden hilfreiche Informationen wie das Wetter, der Verkehr oder wie voll es vor Ort ist ergänzt.
- Um immersive Ansichten so lebensnah wie möglich darzustellen, verwenden wir sogenannte neuronale Strahlungsfelder (NeRF), eine fortschrittliche KI-Technik, die gewöhnliche Bilder in 3D-Darstellungen umwandelt. Mit NeRF können wir den gesamten Kontext eines Ortes genau reproduzieren – einschließlich seiner Beleuchtung, der Textur von Materialien und dem, was sich im Hintergrund befindet.
Immersive Ansicht rollt ab heute in London, Los Angeles, New York, San Francisco und Tokio aus. Und in den nächsten Monaten kommen noch weitere Städte hinzu wie zum Beispiel Amsterdam, Dublin, Florenz und Venedig.
Bard / Nora
Bard ist der auf LaMDA basierende Chatbot von Google, der derzeit mit einem kleinen Kreis an Testern ausprobiert werden kann. Bard soll Fragen in normaler Sprache beantworten, die Informationen sind aktuell. Im gestrigen Livestream-Event wurde noch NORA angeteasert – No One Right Answer. Eine weitere KI in der Google Suche. Sie erscheint, wenn eine Frage keine einzelne, klare Antwort zulässt, sondern mehrere Antwortmöglichkeiten vorhanden sind. Nora zeigt die Auswahl an Antworten direkt unter dem Suchfeld, noch vor den weiteren Antworten und Werbeanzeigen.