Google dodaje nowe funkcje usprawniające wyszukiwanie i są one interesujące | Porównanie

Google dodaje nowe funkcje usprawniające wyszukiwanie i są one interesujące | Porównanie
Google zaprezentowało serię ogłoszeń, których celem jest ulepszenie jego podstawowego produktu: wyszukiwarki. Podczas wydarzenia Search On firma wyjaśniła, że ​​skupi się na wykorzystaniu sztucznej inteligencji, aby pomóc swoim użytkownikom. Nowe funkcje obejmują nowy algorytm lepiej radzący sobie z błędami ortograficznymi w zapytaniach użytkowników, możliwość wykrywania utworów za pomocą buzza oraz nowe narzędzia pomagające uczniom w odrabianiu zadań domowych. Firma ogłosiła również aktualizacje Google Lens i innych narzędzi związanych z wyszukiwaniem.

Niewłaściwa sprzedaż może nie mieć znaczenia

(Źródło zdjęcia: Google) Wydarzenie Google, które było transmitowane na żywo, miało na celu „podzielenie się kilkoma nowymi przełomami w rankingach wyszukiwania, które były możliwe dzięki naszym najnowszym badaniom AI”. Jedną z głównych atrakcji była wyszukiwarka Google poprawiająca zdolność radzenia sobie z literówkami. Według Google, 1 na 10 aplikacji ma błędną pisownię. Mimo że obecnie jest przez nią obsługiwana, „masz na myśli?” funkcjonalność, Google ulepsza. "Dzisiaj wprowadzamy nowy algorytm pisowni, który wykorzystuje głęboką sieć neuronową, aby radykalnie poprawić naszą zdolność do łamania błędów ortograficznych. W rzeczywistości ta pojedyncza zmiana przynosi większą poprawę pisowni niż jakakolwiek z naszych ulepszeń w ciągu ostatnich pięciu lat" - powiedział Prabhakar Raghavan, starszy wiceprezes ds. wyszukiwania i Asystenta Google ds. lokalizacji geograficznych, reklamy, handlu, płatności i NBU Nowy algorytm sprawdzania pisowni pomaga Google zrozumieć kontekst błędnie napisanych słów, pomagając użytkownikom znaleźć właściwe wyniki w mniej niż 3 milisekundy. nowa technologia poprawiająca 7% zapytań we wszystkich językach w miarę jej globalnego wdrażania.

Ważne dane są już dostępne

(Źródło: Google) Google integruje również i udostępnia różne źródła danych, które wcześniej były dostępne tylko w Google Open Data Commons, w wyszukiwarce. „Teraz, gdy zadajesz pytanie w rodzaju „ile osób pracuje w Chicago”, używamy przetwarzania języka naturalnego, aby odwzorować Twoje zapytanie na określony zestaw miliardów punktów danych z Data Commons, aby zapewnić prawidłowe statystyki w formacie wizualnym i łatwe do zrozumienia. Znajdziesz tu również inne istotne punkty danych i kontekst, takie jak statystyki z innych miast, które pomogą Ci z łatwością zbadać temat bardziej szczegółowo” – powiedział Google.

Kluczowe momenty w treści wideo

(Źródło zdjęcia: Google) W miarę jak świat w coraz większym stopniu obejmuje treści wideo, firma Google opracowała zaawansowane rozpoznawanie komputera i rozpoznawanie głosu, aby zaznaczyć kluczowe momenty w filmach. „Dzięki nowemu podejściu opartemu na sztucznej inteligencji możemy teraz zrozumieć głęboką semantykę filmu i automatycznie identyfikować kluczowe momenty. Dzięki temu możemy zaznaczyć te momenty w filmie, dzięki czemu można je przeglądać jak rozdziały w książce. Niezależnie od tego, czy szukasz tego kroku w samouczku dotyczącym przepisu, czy zwycięskiego home runu w rolce z najważniejszymi momentami, możesz łatwo znaleźć te chwile. Zaczęliśmy testować tę technologię w tym roku i spodziewamy się, że do końca 2020 roku 10% wyszukiwań w Google będzie korzystać z tej nowej technologii. "

Jeden i weź

Google powiedział, że może teraz wykrywać brzęczenie i syczenie wokalne, aby pokazać, jakiej piosenki użytkownik chce szukać. W wyszukiwarce Google użytkownicy mogą dotknąć ikony mikrofonu i powiedzieć „Co to za piosenka?” lub kliknij „Wyszukaj utwór” i zacznij nucić przez 10-15 sekund. W Asystencie Google użytkownicy mogą powiedzieć „Hej, Google, co to za piosenka?” potem zanuć melodię.

Obiektyw nadaje się do wielu zastosowań

Kolejną fajną rzeczą jest Google Lens, gdzie możesz poprosić aplikację o odczytanie fragmentu zdjęcia z książki, niezależnie od języka. Dzięki Google Lens użytkownicy mogą kliknąć dowolny znaleziony obraz, który z kolei wyświetli podobne elementy i zasugeruje sposoby stylizacji strojów. Dzięki funkcji Google Lens użytkownicy mogą zrobić zdjęcie problemu z pracą domową, a obraz pytania z zadania domowego zamieni się w zapytanie wyszukiwania. Wyniki pokażą, jak krok po kroku rozwiązać problem.

Na kartach jest ich więcej

Po stronie zakupów, jeśli szukasz, powiedzmy, samochodu, Google będzie teraz w stanie udostępnić widok AR, abyś mógł zobaczyć, jak to wygląda dla Ciebie. „Zdystansowanie społeczne radykalnie zmieniło również sposób, w jaki robimy zakupy. Dlatego ułatwiamy wizualne znalezienie tego, czego szukasz w Internecie, niezależnie od tego, czy szukasz swetra, czy chcesz przyjrzeć się bliżej nowemu samochodowi, ale nie możesz odwiedzić salonu sprzedaży” – powiedział Google. Mapy, Google będzie wyświetlać informacje na żywo bezpośrednio na mapie, więc nie musisz ich specjalnie szukać”. Dodajemy również informacje dotyczące bezpieczeństwa związane z COVID-19 na pierwszym miejscu w profilach firm w wyszukiwarce Google i w Mapach. Pomoże Ci to dowiedzieć się, czy firma wymaga noszenia maski, czy musisz dokonać rezerwacji. z wyprzedzeniem lub jeśli personel zastosuje dodatkowe środki ostrożności, takie jak kontrola temperatury. Wykorzystaliśmy naszą technologię Duplex Chat, aby pomóc lokalnym firmom aktualizować ich informacje online, takie jak godziny otwarcia sklepów i zapasy” – powiedział Google.

Również dla dziennikarzy

W ramach Journalist Studio Google uruchamia Pinpoint, nowe narzędzie, które zapewnia dziennikarzom moc wyszukiwarki Google. „Pinpoint pomaga dziennikarzom szybko poruszać się po setkach tysięcy dokumentów, automatycznie identyfikując i porządkując najczęściej wymieniane osoby, organizacje i miejsca. Dziennikarze mogą zarejestrować się w celu uzyskania dostępu do Pinpoint od tego tygodnia”. Google powiedział. Źródło: Google