Na razie nie miałem czasu zobaczyć na spokojnie całości, ale słuchając jednym uchem i przewijając wyłapałem, że:
- będzie wyszukiwanie na podstawie zdjęć czy nawet filmów - będzie można zrobić na przykład zdjęcie butów, a Google na podstawie zdjęcia pokaże Ci gdzie je możesz kupić - na podobnej zasadzie będzie można zastopować film i zaznaczyć na nim interesujący nas obiekt,
- na podstawie obrazu z kamery, filmów czy zdjęć Google rozpozna miejsca, obiekty, a nawet potrawy i wyświetli wyniki (będzie można nadać kontekst i do zdjęcia dołączyć pytanie, na przykład "gdzie to kupię?"),
- odpowiedzi AI będą prezentowane w wynikach - z tego co zrozumiałem ma to być wykorzystywane w przypadku pytań na które nie ma jednej jednoznacznej odpowiedzi (nazwali to NORA - No One Right Answer). Zaprezentowali to na takim przykładzie: Przy pytaniu "Co to jest konstelacja?" - ma zostać tak jak było, ale przy pytaniu "Jaka jest najlepsza konstelacja do oglądania podczas obserwacji nieba?" - AI ma wygenerować krótkie podsumowanie, gdzie w kilku zdaniach opisze najpopularniejsze konstelacje i dopiero pod spodem będą wyniki. Argumentują to tym, że AI ma Ci podawać prostą, ale mało szczegółową odpowiedź, a dopiero kiedy będziesz chciał się dowiedzieć więcej to sobie poszukasz niżej w wynikach.
Reszta już mniej dotyczy tematyki forum.
Słuchałem jednym uchem przy okazji robienia innych rzeczy, więc to podsumowanie może nie być najlepsze