Wyjaśniamy zawiłości AI
Zebrane i wytłumaczone pojęcia, protokoły i narzędzia, których używamy budując integracje agentów AI. Szukasz konkretnego terminu? Zajrzyj do słownika terminów.
Czym jest protokół A2A?
A2A (Agent-to-Agent) to potoczna nazwa dla Agent-to-Agent Protocol — otwartego protokołu komunikacyjnego opracowanego przez Google. Jest to zbiór reguł i schematów wymiany informacji pozwalający programom (agentom AI) porozumiewać się ze sobą w ustandaryzowany sposób.
Dzięki A2A programiści mogą pisać oprogramowanie tak, by mogło wysyłać komunikaty do innych aplikacji zgodnych z tym protokołem — niezależnie od tego, w jakim języku programowania lub na jakiej infrastrukturze zostały zbudowane.
Prostym językiem
Wyobraź sobie A2A jako wspólny język dyplomatyczny. Dwa kraje (agenci AI) mogą nie mówić tym samym językiem ojczystym, ale gdy obaj znają esperanto (protokół A2A), mogą się porozumieć. Agent ANITA może zlecić zadanie agentowi ANTEK, a ten odpowie w sposób, który ANITA zrozumie — i wszystko to dzieje się automatycznie, bez pośrednictwa człowieka.
Technicznie — jak to działa?
- Agenci komunikują się przez HTTP/HTTPS z użyciem formatu JSON.
- Każdy agent udostępnia tzw. Agent Card — plik JSON opisujący jego możliwości, wejścia i wyjścia.
- Komunikacja opiera się na modelu Task (zadanie): jeden agent wysyła zadanie, drugi je przetwarza i zwraca wynik.
- Protokół wspiera zarówno odpowiedzi synchroniczne, jak i asynchroniczne strumieniowanie wyników (Server-Sent Events).
- Uwierzytelnianie realizowane jest przez standardowe mechanizmy webowe (np. Bearer Token, OAuth 2.0).
Zewnętrzne źródła: Oficjalna dokumentacja protokołu A2A (google.github.io)
Narzędzia i technologie
Poniżej znajdziesz opis narzędzi, z których korzystamy (lub które rekomendujemy) przy budowie integracji opartych na agentach AI.
Google Cloud — Vertex AI
Platforma ML/AI od Google Cloud
Vertex AI to zarządzana platforma uczenia maszynowego Google Cloud. Umożliwia trenowanie, wdrażanie i monitorowanie modeli AI w skalowalnej infrastrukturze chmurowej. W kontekście agentów AI kluczowa jest funkcja Agent Engine (Reasoning Engine) — środowisko uruchomieniowe dla agentów LangChain/LangGraph, które zapewnia zarządzanie stanem, logowaniem i bezpieczeństwem bez konieczności zarządzania własną infrastrukturą.
Gemini
Rodzina modeli językowych Google
Gemini to rodzina wielomodalnych modeli językowych (LLM) opracowanych przez Google DeepMind. Modele Gemini (Flash, Pro, Ultra) potrafią rozumieć i generować tekst, kod, obrazy oraz audio. W ekosystemie ANITA & ANTEK Gemini służy jako silnik wnioskowania — przetwarza kontekst zadania i generuje odpowiedzi lub kolejne akcje do wykonania przez agenta.
LiteLLM
Ujednolicone API dla setek modeli LLM
LiteLLM to biblioteka open-source (Python) i proxy-serwer, która udostępnia jednolity interfejs API (kompatybilny z OpenAI) dla ponad 100 różnych dostawców modeli językowych: OpenAI, Anthropic, Google Gemini, Azure, Cohere i wielu innych. Pozwala na łatwe przełączanie się między dostawcami, zarządzanie kluczami API, logowanie kosztów i load balancing — bez zmiany kodu aplikacji.
LibreChat
Otwartoźródłowy interfejs czatu AI
LibreChat to open-source'owa platforma czatowa (self-hosted), będąca zaawansowaną alternatywą dla ChatGPT. Obsługuje wielu dostawców AI jednocześnie (OpenAI, Anthropic, Gemini, lokalne modele przez Ollama i inne). Oferuje funkcje takie jak zarządzanie konwersacjami, wtyczki, RAG oraz zarządzanie wieloma użytkownikami. Świetna do wewnętrznych wdrożeń korporacyjnych.
Open WebUI
Interfejs webowy dla modeli Ollama i OpenAI
Open WebUI (dawniej Ollama WebUI) to rozszerzalny, self-hosted interfejs webowy dla modeli AI, działający całkowicie offline. Obsługuje modele lokalne przez Ollama oraz zdalne API (OpenAI, Gemini, itp.). Umożliwia tworzenie własnych agentów, pipeline'ów przetwarzania danych, RAG na własnych dokumentach oraz zarządzanie dostępem dla wielu użytkowników.
Vercel AI SDK
TypeScript SDK do budowania aplikacji AI
Vercel AI SDK to biblioteka TypeScript/JavaScript ułatwiająca budowanie interfejsów użytkownika
dla aplikacji AI — zarówno w Next.js, jak i innych frameworkach. Dostarcza hooki React (np.
useChat,
useCompletion),
obsługuje strumieniowanie odpowiedzi, narzędzia (tools), generowanie ustrukturyzowanych danych
(structured outputs) oraz integruje się z wieloma dostawcami LLM.
LangGraph
Framework do budowania agentów AI opartych na grafach stanów
LangGraph to biblioteka (Python i JavaScript) z ekosystemu LangChain, służąca do budowania złożonych, stanowych agentów AI jako grafów skierowanych. Każdy węzeł grafu to krok przetwarzania (wywołanie modelu, narzędzia, logika warunkowa), a krawędzie określają przepływ sterowania. Pozwala to na tworzenie agentów z pętlami, rozgałęzieniami i złożoną logiką orkiestracji — wykorzystywanych m.in. w Vertex AI Agent Engine.
Protokół A2C (Agent-to-Client)
Protokół komunikacji agent–interfejs użytkownika
A2C (Agent-to-Client) to protokół opisujący komunikację między agentem AI a interfejsem użytkownika (frontendem / klientem). O ile A2A reguluje rozmowę między agentami w tle, A2C definiuje sposób prezentowania wyników i akcji agenta użytkownikowi końcowemu — np. strumieniowanie tekstu, zdarzenia postępu, elementy UI generowane dynamicznie przez agenta.
RAG — Retrieval-Augmented Generation
RAG (ang. Retrieval-Augmented Generation — generowanie wspomagane wyszukiwaniem) to technika pozwalająca modelom językowym odpowiadać na pytania w oparciu o rzeczywiste, aktualne dane z bazy wiedzy, zamiast polegać wyłącznie na wiedzy „wyuczonej" podczas treningu.
W praktyce: zanim model wygeneruje odpowiedź, system wyszukuje w bazie dokumentów (wektorowej) fragmenty najbardziej zbliżone do zadanego pytania i dołącza je jako kontekst do zapytania. Dzięki temu agent może odpowiadać na podstawie firmowych dokumentów, FAQ, historii projektów lub innych wewnętrznych danych — bez konieczności ponownego trenowania modelu.
W ekosystemie ANITA & ANTEK, ANTEK używa RAG do przeszukiwania archiwum projektów klienta i generowania precyzyjnych wycen lub analiz na podstawie historycznych danych.
Szukasz konkretnego pojęcia?
Przejdź do słownika terminów