Was ist Ihre Herausforderung?

Sprechen Sie direkt mit einem Experten unter +41 435 087 449

Ich will News!

    Kontakt
    Multisearch: Smartphone mit Logo von Google Lens
    NEWS

    Google Multisearch revolutioniert die Suche

    Kostenlosen Website-Check erhalten!
    Home Blog
    WEVENTURE 03/11/22

    Bei Google einen Suchbegriff eingeben? Haben wir schon hunderte Male gemacht. Eine Google-Suche mit einem Bild starten? Auch das machen wir immer öfter. Jetzt ermöglicht Google uns, die Bildsuche mit Texten zu erweitern und so noch zielgerichteter zu suchen. Wie das genau geht und warum es bei dieser Super-Sache noch einen kleinen Haken gibt, wollen wir dir im Folgenden erklären.


    Was dich erwartet

    Das kann Multisearch

    Die Laptoptasche auf dem Nachbartisch sieht toll aus … Wenn es die nur in Blau gäbe. Googles neue Suchfunktion Multisearch macht genau das möglich: Einfach Google Lens öffnen, ein Bild vom gesuchten Gegenstand (z. B. der perfekten Laptoptasche in der falschen Farbe) machen und mit Text versehen (z. B. „blau“). Schon spuckt die KI-basierte Suche Angebote für die Laptoptasche oder ähnliche Produkte in Blau aus. Klingt zu gut, um wahr zu sein? Ist es in Deutschland auch, denn Multisearch ist bisher nur auf Englisch verfügbar. (Aber: Einen kleinen Workaround für die deutschsprachige Suche haben wir dennoch gefunden, mehr dazu weiter unten.) Im Laufe des Jahres soll die Funktion weltweit auf Englisch angeboten werden und in den nächsten Monaten sollen 70 Sprachen hinzukommen. Genaue Informationen, zum Beispiel zu einem deutschen Rollout, gibt es bisher nicht. Wenn die englische Beta-Phase erfolgreich ist, sollte einer deutschen Version aber nichts im Wege stehen.

    Fünf Screenshots von Google Multisearch bei der Suche nach Kleidern
    So sieht Google Multisearch im Einsatz aus (Quelle: Google)

    Anwendungsbeispiele für Google Multisearch

    Kleidung in anderen Farben zu finden, ist ja schön und gut. Aber kann Multisearch auch mehr? Absolut!

    • Ein Foto deiner neuen Zimmerpflanze und der Begriff „Pflege“ zeigen dir schnell, wie viel Licht und Wasser dein neuer Schützling braucht.
    • Ein Screenshot vom fancy Cocktail deines Lieblingsbloggers und die Ergänzung „Rezept“ zeigen dir nicht nur den Namen des Cocktails, sondern auch praktische Rezepte.
    • Zu dem schicken Esstisch vom Flohmarkt muss es doch passende Stühle geben … Ergänze ein Foto des Tisches mit dem Suchbegriff „Stühle“ und finde die passende Sitzgruppe zu deiner Neuanschaffung.
    Twitter

    Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
    Mehr erfahren

    Inhalt laden

    Workaround für die deutsche Suche

    Wie versprochen hier nun der Workaround für all die unter euch, die es (auch) nicht erwarten können: Wer über Google Lens die Bildersuche startet, kann mit dem kleinen Such-Button unten rechts in die Google-Suche springen. Dort kann man dann das Bild mit einem Suchbegriff ergänzen und erhält Bilder, die halbwegs dem Foto und dem Begriff entsprechen. Hier scheint aber keine allzu ausgeklügelte KI eingesetzt zu werden, das zeigt unser Beispiel sehr gut:

    Drei Screenshots von Google Lens bei der Suche nach Stoff mit Avocado-Muster
    Bildersuche mittels Google Lens – nicht ganz so clever wie Multisearch

    Während Google Lens die Avocados auf dem Bild eindeutig als solche identifiziert, scheitert die Google-Suche daran. Die Suche erkennt keine Details, sondern abstrahiert das Bild eher. Soll heissen: Eine gelbe Teekanne finden wir auch in blau und ein Foto von grünem Hintergrund mit dem Suchbegriff “Krawatte” bringt uns grüne Krawatten. Eine Tasche mit dem fotografierten Avocado-Muster findet die Google-Suche allerdings nicht. Als Überbrückung ist dieser Workaround für einfache Suchen eine akzeptable Lösung, aber wir freuen uns dennoch auf den vollen Funktionsumfang von Google Multisearch. Damit wir endlich Krawatten finden, die zum Muster unserer Laptoptaschen passen!

    Lokale Informationen mit Multisearch

    Als wäre die Grundfunktion von Google Multisearch nicht Revolution genug, setzt die Suchmaschine noch einen drauf: Mit einem Bild und der Ergänzung „near me“ (auf Deutsch wohl „in meiner Nähe“) können Nutzer:innen mit dem neuen Update in Google Lens bald Restaurants, Geschäfte und Dienstleister in ihrer Nähe finden. Erinnerst du dich an das Beispiel mit dem Cocktail, dessen Rezept du mit Multisearch findest, ohne den Namen des Drinks zu kennen? Wenn du keine Lust hast, den Cocktail selbst zu mixen, kannst du das Bild mit dem Suchbegriff „near me“ versehen und bekommst Bars in deiner Nähe angezeigt, die diesen Cocktail anbieten. Ähnlich funktioniert das mit Fotos von Essen, Kleidung oder einer Gartenschere. So einfach war Suchen wohl noch nie. Die Funktion soll im späten Herbst in den USA ausgerollt werden und erreicht Deutschland hoffentlich im nächsten Jahr.

    Twitter

    Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
    Mehr erfahren

    Inhalt laden

    Szenenerkennung

    Und was kommt als Nächstes? Die Erkennung ganzer Umgebungen statt nur einzelner Bilder. Nehmen wir das Beispiel, das Google selbst in seinem Blog zur Illustration nutzt: Mit der Szenenerkennung in Google Multisearch können Nutzer:innen ein Regal voller Schokoladentafeln scannen. Google Lens blendet in Echtzeit Informationen zu den verschiedenen Schokoladen ein (Bewertungen, Kakaogehalt, Sorten etc.). So wie bei der bereits bekannten Multisearch können wir unsere Suche verfeinern (z. B. mit den Begriffen „dunkel“ oder „ohne Nüsse“). Die Szenenerkennung hebt nun die Tafeln im Regal hervor, die den Suchkriterien entsprechen.
    Digitale Informationen in eine echte Umgebung einblenden … Erinnert uns das nicht an etwas? Allerdings!

    Die Rückkehr von Google Glass?

    Die Suchfunktion der Szenenerkennung klingt doch stark nach Augmented-Reality-Anwendungen. Und die funktionieren am besten mit entsprechenden Wearables wie der AR-Brille Google Glass (Anmerkung der Autorin: Dabei handelt es sich nicht um eine Brille, sondern um einen Computer, der nur auf einer Seite genutzt wird. Daher heisst das Google-Produkt tatsächlich Google Glass, nicht Google Glasses, was auch ich erst während der Recherche zu diesem Artikel festgestellt habe. The more you know …)
    Das Produkt konnte sich zum Launch 2014 nicht durchsetzen. Die Weiterentwicklung Glass Enterprise Edition 2 bedient vor allem Unternehmen in der Fertigung und Logistik sowie im Gesundheitswesen. Multisearch und die Szenenerkennung könnten das Google Glass wieder zu einer relevanten Grösse im Bereich der Wearables und endlich auch für den B2C-Vertrieb interessant machen.

    Google Multisearch und SEO

    Die gute Nachricht für alle SEOs: Google Multisearch wird die Suchmaschinenoptimierung nicht in ihren Grundfesten erschüttern (*erleichtertes Aufatmen im WEVENTURE-SEO-Team*).
    In der Google-Hangouts-Session vom 29.04.2022 stellte Googles Senior Webmaster-Trends-Analyst John Müller klar, dass man als SEO-Manager:in nichts aktiv tun könne, um bei den Multisearch-Suchergebnissen zu erscheinen. Wenn man alles richtig mache und Bilder indexiert sowie Inhalte auffindbar und relevant seien, könne Google die Nutzer:innen bei entsprechenden Suchanfragen zu den Bildern führen.
    Also tun wir weiter, was wir schon immer getan haben: Wir nutzen relevante Bilder an sinnvollen Stellen (gerne auch im Fliesstext), versehen sie mit aussagekräftigen Titeln und Alt-Texten und fügen passende Keywords ein. Von sinnlosem, weil kontraproduktivem Keyword-Stuffing nehmen wir natürlich ebenso Abstand wie von anderen Blackhat-SEO-Strategien.
    Ein kleines Manko sehen unsere SEO-Manager:innen allerdings: Aktuell lässt sich Traffic über Multisearch nicht separat tracken, sondern wird dem Kanal „Direct Traffic” zugeordnet. Das macht eine saubere und trennscharfe Traffic-Auswertung leider unmöglich … Wir hoffen, dass Google das korrigiert, bevor die Anwendung weiter ausgerollt wird.

    Meine Meinung zu Google Multisearch

    In meinen Augen ermöglicht Multisearch genau das, was Googles Senior Vice-President Prabhakar Raghavan als Ziel der Anwendung beschreibt: Wir können so suchen, wie wir es im echten Leben auch tun. Zumindest teilweise. Wir können optische Eindrücke mit konkreten Fragen kombinieren und so eine tatsächlich relevante Antwort auf unsere Frage erhalten.
    Alle Google-typischen Datenbedenken einmal beiseite geschoben, bin ich Fan der Multisearch. Wenn die Beta-Version erfolgreich getestet und international ausgerollt wird, können wir uns auf eine „Search Revolution“ einstellen: weil Suchergebnisse echte Sucherlebnisse werden. Meiner Meinung nach bezeichnet Google seine Multisearch-Funktion zurecht als eines der „bedeutendsten Updates für die Google Suche seit mehreren Jahren“.
    Mich interessieren besonders die Möglichkeiten, die uns die Szenenerkennung bieten wird. Wer stand denn noch nie völlig überfordert vor einem Regal im Baumarkt und wusste nicht, welche Lasur, Schraube oder Rohrschelle die richtige für das anstehende Projekt ist? Google könnte solche Probleme in Zukunft lösen. Denn dann stehen zwar zehn Leute im Gang und richten ihre Smartphone-Kamera auf das Schraubenregal. Aber wenigstens kann Google Lens so auch die Kund:innenzufriedenheit ordentlich nach oben schrauben.


    Fazit

    Google liefert mit Multisearch und den Erweiterungen (darunter lokale Informationen sowie Szenenerkennung) eine echte Innovation für die Google-Suche. Wir sind gespannt, wann Multisearch auf Deutsch verfügbar sein wird und ob die Funktion auch Google Glass neues Leben einhauchen wird.

    Weitere Blogeinträge

    Geldscheine aus dem Fenster werfen
    SEA
    Google Shopping wird kostenfrei – Der SEA Gamechanger?
    Viele sehr ähnliche Schafe auf einer Wiese
    SEO
    Hreflang Tag – das Must-Have bei internationalen Webseiten