Yelp transformuje proces odkrywania lokalnych usług, zastępując klasyczną listę dziesięciu niebieskich linków konwersacyjnym Yelp Assistant, który integruje wyszukiwanie z bezpośrednią rezerwacją i transakcjami. Wprowadzenie architektury Retrieval-Augmented Generation (RAG) pozwala systemowi dostarczać precyzyjne odpowiedzi z przypisami do źródeł, co drastycznie skraca ścieżkę klienta od intencji do akcji.
Architektura RAG i optymalizacja wydajności
Przejście od prototypu do skalowalnego systemu produkcyjnego wymagało od Yelp dekonstrukcji monolitycznego modelu LLM na rzecz wyspecjalizowanych agentów. System wykorzystuje model kaskadowy: lekkie, dostrojone modele (GPT-4.1-nano) odpowiadają za analizę zapytań, bezpieczeństwo (Trust & Safety) oraz selekcję źródeł, podczas gdy potężniejsze jednostki (GPT-4.1 lub GPT-4o) generują końcową odpowiedź. Dzięki takiemu podejściu koszty operacyjne spadły, a prędkość wnioskowania wzrosła o blisko 20%.
Warstwa danych została rygorystycznie rozdzielona, aby zapobiec halucynacjom faktograficznym: fakty strukturalne, takie jak godziny otwarcia czy udogodnienia, przechowywane są w bazie Cassandra, natomiast treści nieustrukturyzowane (recenzje, zdjęcia) serwowane są przez indeksy wyszukiwania (Lucene). Przy pełnym czasie generacji odpowiedzi wynoszącym średnio 3,5 sekundy (p50), Yelp wdrożył FastAPI i Server-Sent Events (SSE), co pozwala na strumieniowanie tekstu token po tokenie i znaczną redukcję subiektywnego czasu oczekiwania użytkownika.
Strategia świeżości danych i bariera zaufania
Skuteczność asystenta AI zależy od rygorystycznej aktualności danych. Yelp wdrożył hybrydowy model ingestii: dane szybkozmienne, takie jak nowe recenzje i atrybuty firm, trafiają do systemu strumieniowo w ciągu zaledwie 10 minut, podczas gdy statyczne treści (np. menu) aktualizowane są w cyklu tygodniowym. Precyzja ta jest niezbędna, by przełamać sceptycyzm użytkowników – badania wykazują, że choć 65% Amerykanów korzysta z wyszukiwarek AI, tylko 15% darzy je wysokim zaufaniem.
Zaufanie ma być budowane poprzez transparentność dowodową. Aż 72% respondentów uważa, że platformy AI powinny zawsze wskazywać pochodzenie informacji. Yelp Assistant realizuje to poprzez generowanie markerów cytowań, które w końcowym kroku są mapowane i formatowane z powrotem do oryginalnych źródeł, takich jak konkretne fragmenty recenzji użytkowników lub opisy zdjęć.
Podsumowanie dla sektora IT i biznesu
Wdrożenie Yelp Assistant to lekcja skalowania systemów agentowych: sukces nie zależy od mocy pojedynczego modelu, lecz od kompletnego systemu inżynieryjnego zapewniającego świeżość danych i modularne mechanizmy kontrolne (guardrails). Przewagę na rynku zyskają biznesy, których profil cyfrowy jest „interpretowalny” dla maszyn – posiadają aktualne menu, specyficzne detale w recenzjach (np. „ogrzewane patio”) oraz sprawne integracje z systemami rezerwacyjnymi, takimi jak Zocdoc, DoorDash czy RepairPal. Skuteczna optymalizacja lokalna (Local SEO) ewoluuje w stronę całkowitej gotowości transakcyjnej wewnątrz konwersacyjnego interfejsu.

Skomentuj Marek.K Anuluj pisanie odpowiedzi