Baza wiedzy

Wyjaśniamy zawiłości AI

Zebrane i wytłumaczone pojęcia, protokoły i narzędzia, których używamy budując integracje agentów AI. Szukasz konkretnego terminu? Zajrzyj do słownika terminów.

Czym jest protokół A2A?

A2A (Agent-to-Agent) to potoczna nazwa dla Agent-to-Agent Protocol — otwartego protokołu komunikacyjnego opracowanego przez Google. Jest to zbiór reguł i schematów wymiany informacji pozwalający programom (agentom AI) porozumiewać się ze sobą w ustandaryzowany sposób.

Dzięki A2A programiści mogą pisać oprogramowanie tak, by mogło wysyłać komunikaty do innych aplikacji zgodnych z tym protokołem — niezależnie od tego, w jakim języku programowania lub na jakiej infrastrukturze zostały zbudowane.

Prostym językiem

Wyobraź sobie A2A jako wspólny język dyplomatyczny. Dwa kraje (agenci AI) mogą nie mówić tym samym językiem ojczystym, ale gdy obaj znają esperanto (protokół A2A), mogą się porozumieć. Agent ANITA może zlecić zadanie agentowi ANTEK, a ten odpowie w sposób, który ANITA zrozumie — i wszystko to dzieje się automatycznie, bez pośrednictwa człowieka.

Technicznie — jak to działa?

  • Agenci komunikują się przez HTTP/HTTPS z użyciem formatu JSON.
  • Każdy agent udostępnia tzw. Agent Card — plik JSON opisujący jego możliwości, wejścia i wyjścia.
  • Komunikacja opiera się na modelu Task (zadanie): jeden agent wysyła zadanie, drugi je przetwarza i zwraca wynik.
  • Protokół wspiera zarówno odpowiedzi synchroniczne, jak i asynchroniczne strumieniowanie wyników (Server-Sent Events).
  • Uwierzytelnianie realizowane jest przez standardowe mechanizmy webowe (np. Bearer Token, OAuth 2.0).

Narzędzia i technologie

Poniżej znajdziesz opis narzędzi, z których korzystamy (lub które rekomendujemy) przy budowie integracji opartych na agentach AI.

Google Cloud — Vertex AI

Platforma ML/AI od Google Cloud

Vertex AI to zarządzana platforma uczenia maszynowego Google Cloud. Umożliwia trenowanie, wdrażanie i monitorowanie modeli AI w skalowalnej infrastrukturze chmurowej. W kontekście agentów AI kluczowa jest funkcja Agent Engine (Reasoning Engine) — środowisko uruchomieniowe dla agentów LangChain/LangGraph, które zapewnia zarządzanie stanem, logowaniem i bezpieczeństwem bez konieczności zarządzania własną infrastrukturą.

Gemini

Rodzina modeli językowych Google

Gemini to rodzina wielomodalnych modeli językowych (LLM) opracowanych przez Google DeepMind. Modele Gemini (Flash, Pro, Ultra) potrafią rozumieć i generować tekst, kod, obrazy oraz audio. W ekosystemie ANITA & ANTEK Gemini służy jako silnik wnioskowania — przetwarza kontekst zadania i generuje odpowiedzi lub kolejne akcje do wykonania przez agenta.

LiteLLM

Ujednolicone API dla setek modeli LLM

LiteLLM to biblioteka open-source (Python) i proxy-serwer, która udostępnia jednolity interfejs API (kompatybilny z OpenAI) dla ponad 100 różnych dostawców modeli językowych: OpenAI, Anthropic, Google Gemini, Azure, Cohere i wielu innych. Pozwala na łatwe przełączanie się między dostawcami, zarządzanie kluczami API, logowanie kosztów i load balancing — bez zmiany kodu aplikacji.

LibreChat

Otwartoźródłowy interfejs czatu AI

LibreChat to open-source'owa platforma czatowa (self-hosted), będąca zaawansowaną alternatywą dla ChatGPT. Obsługuje wielu dostawców AI jednocześnie (OpenAI, Anthropic, Gemini, lokalne modele przez Ollama i inne). Oferuje funkcje takie jak zarządzanie konwersacjami, wtyczki, RAG oraz zarządzanie wieloma użytkownikami. Świetna do wewnętrznych wdrożeń korporacyjnych.

Open WebUI

Interfejs webowy dla modeli Ollama i OpenAI

Open WebUI (dawniej Ollama WebUI) to rozszerzalny, self-hosted interfejs webowy dla modeli AI, działający całkowicie offline. Obsługuje modele lokalne przez Ollama oraz zdalne API (OpenAI, Gemini, itp.). Umożliwia tworzenie własnych agentów, pipeline'ów przetwarzania danych, RAG na własnych dokumentach oraz zarządzanie dostępem dla wielu użytkowników.

Vercel AI SDK

TypeScript SDK do budowania aplikacji AI

Vercel AI SDK to biblioteka TypeScript/JavaScript ułatwiająca budowanie interfejsów użytkownika dla aplikacji AI — zarówno w Next.js, jak i innych frameworkach. Dostarcza hooki React (np. useChat, useCompletion), obsługuje strumieniowanie odpowiedzi, narzędzia (tools), generowanie ustrukturyzowanych danych (structured outputs) oraz integruje się z wieloma dostawcami LLM.

LangGraph

Framework do budowania agentów AI opartych na grafach stanów

LangGraph to biblioteka (Python i JavaScript) z ekosystemu LangChain, służąca do budowania złożonych, stanowych agentów AI jako grafów skierowanych. Każdy węzeł grafu to krok przetwarzania (wywołanie modelu, narzędzia, logika warunkowa), a krawędzie określają przepływ sterowania. Pozwala to na tworzenie agentów z pętlami, rozgałęzieniami i złożoną logiką orkiestracji — wykorzystywanych m.in. w Vertex AI Agent Engine.

Protokół A2C (Agent-to-Client)

Protokół komunikacji agent–interfejs użytkownika

A2C (Agent-to-Client) to protokół opisujący komunikację między agentem AI a interfejsem użytkownika (frontendem / klientem). O ile A2A reguluje rozmowę między agentami w tle, A2C definiuje sposób prezentowania wyników i akcji agenta użytkownikowi końcowemu — np. strumieniowanie tekstu, zdarzenia postępu, elementy UI generowane dynamicznie przez agenta.

RAG — Retrieval-Augmented Generation

RAG (ang. Retrieval-Augmented Generation — generowanie wspomagane wyszukiwaniem) to technika pozwalająca modelom językowym odpowiadać na pytania w oparciu o rzeczywiste, aktualne dane z bazy wiedzy, zamiast polegać wyłącznie na wiedzy „wyuczonej" podczas treningu.

W praktyce: zanim model wygeneruje odpowiedź, system wyszukuje w bazie dokumentów (wektorowej) fragmenty najbardziej zbliżone do zadanego pytania i dołącza je jako kontekst do zapytania. Dzięki temu agent może odpowiadać na podstawie firmowych dokumentów, FAQ, historii projektów lub innych wewnętrznych danych — bez konieczności ponownego trenowania modelu.

W ekosystemie ANITA & ANTEK, ANTEK używa RAG do przeszukiwania archiwum projektów klienta i generowania precyzyjnych wycen lub analiz na podstawie historycznych danych.

Szukasz konkretnego pojęcia?

Przejdź do słownika terminów