Słownik AI rośnie w zawrotnym tempie – nowe pojęcia pojawiają się szybciej niż zdążamy je przyswoić. Ten artykuł porządkuje 100 najważniejszych terminów sztucznej inteligencji w 14 logicznych kategoriach, wyjaśniając każde z nich prostym, zrozumiałym językiem. Niezależnie od tego, czy dopiero zaczynasz przygodę z AI, czy chcesz uzupełnić luki w wiedzy – tutaj znajdziesz rzetelny, aktualny punkt odniesienia.
Sztuczna inteligencja przestała być domeną badaczy. W Polsce już 94% specjalistów IT deklaruje codzienne korzystanie z narzędzi AI. Żeby w pełni rozumieć te narzędzia – i ich ograniczenia – warto znać język, którym opisuje się ich działanie.
![Słownik AI: 100 pojęć sztucznej inteligencji wyjaśnionych prostym językiem [2026]](https://techwebsite.pl/wp-content/uploads/2026/03/output-5.jpg)
Czym jest sztuczna inteligencja i jak się dzieli? (terminy 1–4)
Sztuczna inteligencja (AI) to dziedzina informatyki tworząca systemy zdolne do wykonywania zadań wymagających ludzkiej inteligencji: rozumowania, uczenia się, percepcji i podejmowania decyzji. Termin ukuł John McCarthy w 1956 roku podczas konferencji w Dartmouth.
- 1. Artificial Intelligence (AI) – sztuczna inteligencja: System wykonujący zadania typowo wymagające ludzkiej inteligencji: rozumowanie, uczenie się, percepcja, podejmowanie decyzji. Definicja Parlamentu Europejskiego z AI Act określa AI jako zdolność maszyn do wykazywania umiejętności takich jak rozumowanie, planowanie i kreatywność.
- 2. Machine learning (ML) – uczenie maszynowe: Podzbiór AI, w którym systemy uczą się wzorców z danych zamiast postępować według ręcznie zakodowanych reguł. Fundament większości współczesnych rozwiązań AI.
- 3. Deep learning (DL) – głębokie uczenie: Technika ML wykorzystująca wielowarstwowe sieci neuronowe do nauki hierarchicznych reprezentacji z dużych zbiorów danych. Umożliwia rozpoznawanie obrazów, mowy i języka naturalnego.
- 4. Neural network – sieć neuronowa: Model obliczeniowy inspirowany ludzkim mózgiem. Składa się z połączonych węzłów (neuronów) zorganizowanych w warstwy, które wspólnie przetwarzają informacje i generują odpowiedź.
Paradygmaty uczenia – jak modele AI się uczą? (terminy 5–11)
Uczenie maszynowe nie jest jednorodną metodą – obejmuje kilka odrębnych podejść zależnych od dostępności danych i celu treningu. Wybór właściwego paradygmatu decyduje o tym, jakiego rodzaju problemy model jest w stanie rozwiązać.
- 5. Supervised learning (uczenie nadzorowane): Model trenuje na przykładach z przypisanymi poprawnymi odpowiedziami. Przykład: klasyfikacja e-maili jako spam lub nie-spam.
- 6. Unsupervised learning (uczenie nienadzorowane): Model szuka ukrytych wzorców w danych bez etykiet. Przykład: grupowanie klientów według zachowań zakupowych.
- 7. Reinforcement learning (RL) – uczenie ze wzmocnieniem: Model uczy się przez próbę i błąd, optymalizując działania na podstawie sygnałów nagród. Tak trenowane były systemy grające w szachy i Go oraz modele językowe przy użyciu RLHF.
- 8. Self-supervised learning – uczenie samodzielne: Model generuje własne etykiety z danych wejściowych, np. przewidując zasłonięte słowa w tekście. Ta metoda leży u podstaw modeli językowych takich jak GPT.
- 9. Transfer learning – transfer wiedzy: Przeniesienie wiedzy zdobytej przy jednym zadaniu do nowego, pokrewnego zadania. Pozwala trenować skuteczne modele przy ograniczonych danych.
- 10. Zero-shot learning: Model wykonuje zadania bez żadnych przykładów treningowych dla danej kategorii – identyfikuje obiekty lub odpowiada na pytania, których nigdy wcześniej nie widział.
- 11. Few-shot learning: Nauka na bardzo małej liczbie przykładów – zazwyczaj od 1 do 10. Podejście kluczowe przy ograniczonych danych etykietowanych.
Architektura i trening modeli – co dzieje się pod maską? (terminy 12–21)
Zrozumienie, jak modele są budowane i trenowane, pomaga ocenić ich możliwości i ograniczenia. Poniżej kluczowe pojęcia z tej kategorii, zestawione w tabeli.
| Nr | Termin | Definicja | Przykład zastosowania |
|---|---|---|---|
| 12 | Transformer | Architektura używająca mechanizmu self-attention. Fundament nowoczesnych LLM – opisana po raz pierwszy w artykule „Attention Is All You Need” (2017). | GPT-4, Claude, Gemini |
| 13 | LLM (Large Language Model) | Duży model językowy trenowany na ogromnych zbiorach tekstu w celu rozumienia i generowania języka naturalnego. | ChatGPT, Claude, Llama |
| 14 | Foundation model | Duży model pre-trenowany na szerokich danych, adaptowany do wielu zadań przez fine-tuning lub prompting. | GPT-4o, Claude 3, Gemini |
| 15 | Parameters – parametry / wagi | Uczalne wartości liczbowe wewnątrz modelu, aktualizowane podczas treningu. Liczba parametrów jest często wyznacznikiem skali modelu (np. GPT-3 ma 175 mld parametrów). | Rozmiar modelu: 7B, 70B, 175B |
| 16 | Hyperparameters | Ustawienia konfiguracyjne ustalane przed treningiem, takie jak learning rate, batch size czy liczba warstw. | Optymalizacja procesu uczenia |
| 17 | Training data – dane treningowe | Zbiór danych używany do nauki wzorców i relacji przez model. | CommonCrawl, Wikipedia, kod GitHub |
| 18 | Epoch | Jedno pełne przejście przez cały zbiór treningowy podczas uczenia modelu. | Śledzenie postępu treningu |
| 19 | Batch size | Liczba próbek przetwarzanych równocześnie przed aktualizacją parametrów modelu. | 32, 64, 128 próbek na iterację |
| 20 | Loss function – funkcja straty | Mierzy różnicę między przewidywaniem modelu a poprawną odpowiedzią. Model minimalizuje tę wartość podczas treningu. | Cross-entropy, MSE |
| 21 | Backpropagation | Algorytm propagujący błędy wstecz przez sieć neuronową, umożliwiający aktualizację wag w celu poprawy wyników. | Trening każdej sieci neuronowej |
- Gradient descent: Algorytm optymalizacji minimalizujący funkcję straty przez iteracyjną aktualizację wag modelu wzdłuż gradientu – umożliwia efektywne uczenie nawet bardzo dużych sieci.
Uwaga: gradient descent to termin ściśle powiązany z backpropagation – oba są wymienione razem w kontekście treningu sieci.
Fine-tuning i dostosowanie modeli – jak specjalizować AI? (terminy 22–27)
Pre-trenowany model to punkt wyjścia. Żeby dostosować go do konkretnego zastosowania – obsługi klienta, analizy dokumentów prawnych czy generowania kodu – stosuje się różne metody dostrajania. Ta kategoria opisuje najważniejsze z nich.
![Słownik AI: 100 pojęć sztucznej inteligencji wyjaśnionych prostym językiem [2026]](https://techwebsite.pl/wp-content/uploads/2026/03/output.jpg)
- 22. Pre-training (pre-trening): Wstępny etap treningu modelu na ogromnych zbiorach danych ogólnego przeznaczenia. Model uczy się statystycznych wzorców języka lub obrazów, zanim zostanie dostosowany do konkretnych zadań. Pre-trening GPT-4 kosztował szacunkowo ponad 100 mln dolarów w mocy obliczeniowej.
- 23. Fine-tuning (dostrajanie): Dalszy trening pre-trenowanego modelu na mniejszym, specjalistycznym zbiorze danych. Pozwala dostosować model do konkretnej domeny (np. medycyna, prawo, obsługa klienta) bez trenowania od zera. To najbardziej popularny sposób specjalizacji modeli.
- 24. Instruction tuning (dostrajanie instrukcjami): Forma fine-tuningu, w której model trenuje na parach pytanie–odpowiedź sformułowanych jako instrukcje. Sprawia, że model lepiej rozumie i wykonuje polecenia użytkownika.
- 25. RLHF (Reinforcement Learning from Human Feedback): Metoda dostrajania modeli językowych z użyciem ludzkich preferencji jako sygnału nagrody. Model uczy się odpowiadać w sposób, który ludzie oceniają jako bardziej pomocny, precyzyjny i bezpieczny. Zastosowana m.in. w treningu ChatGPT i Claude.
- 26. LoRA (Low-Rank Adaptation): Parametroefektywna metoda fine-tuningu, w której zamiast aktualizować wszystkie wagi modelu, trenuje się niewielkie macierze niskorangowe. Pozwala dostosować model kilkadziesiąt razy taniej niż pełny fine-tuning.
- 27. PEFT (Parameter-Efficient Fine-Tuning): Rodzina metod dostrajania modeli (w tym LoRA) pozwalających uzyskać wysoką jakość przy aktualizacji zaledwie ułamka parametrów. Kluczowe dla wdrożeń z ograniczonymi zasobami obliczeniowymi.
NLP i język – jak AI rozumie tekst? (terminy 28–33)
Natural Language Processing (NLP) to dziedzina AI zajmująca się rozumieniem, interpretacją i generowaniem ludzkiego języka. Modele NLP zasilają dziś wyszukiwarki, chatboty, asystentów głosowych i systemy tłumaczenia.
- 28. NLP (Natural Language Processing) – przetwarzanie języka naturalnego: Obszar AI skupiony na rozumieniu, interpretacji i generowaniu ludzkiego języka przez maszyny. NLP łączy lingwistykę, statystykę i głębokie uczenie.
- 29. Embedding (osadzenie wektorowe): Gęsta reprezentacja wektorowa kodująca semantyczne znaczenie słów, zdań lub obrazów w przestrzeni liczbowej. Podobne pojęcia mają geometrycznie zbliżone wektory – to fundament wyszukiwania semantycznego i systemów RAG.
- 30. Semantic search (wyszukiwanie semantyczne): Wyszukiwanie oparte na znaczeniu i intencji zapytania, nie tylko dopasowaniu słów kluczowych. Umożliwia znajdowanie treści nawet wtedy, gdy użytkownik nie użył dokładnych słów z dokumentu.
- 31. Tokenization (tokenizacja): Dzielenie tekstu na mniejsze jednostki (tokeny) przetwarzane przez model – mogą to być całe słowa, fragmenty lub pojedyncze znaki. Sposób tokenizacji wpływa na efektywność i koszty modelu.
- 32. Attention mechanism (mechanizm uwagi): Komponent sieci neuronowej pozwalający modelowi przypisywać różne wagi różnym fragmentom wejścia przy generowaniu każdego tokenu wyjściowego. Leży u podstaw architektury Transformer.
- 33. Prompt engineering (inżynieria promptów): Sztuka i nauka projektowania instrukcji (promptów) w sposób maksymalizujący jakość i użyteczność odpowiedzi modelu. Obejmuje techniki takie jak Chain-of-Thought, few-shot examples czy role prompting.
Generatywna AI – pojęcia, które musisz znać (terminy 34–41)
Generatywna AI to podzbiór modeli tworzących nowe treści: tekst, obrazy, wideo i dźwięk. To właśnie te systemy odmieniły codzienną pracę milionów ludzi i stały się synonimem „rewolucji AI” zapoczątkowanej w 2022 roku.
- 34. Generative AI – generatywna AI: Modele AI projektowane do tworzenia nowych treści (tekst, obraz, wideo, audio, kod) na podstawie wzorców wyuczonych z danych treningowych. Przykłady: ChatGPT, DALL-E, Sora, Midjourney.
- 35. Prompt: Instrukcja tekstowa lub pytanie kierowane do modelu przez użytkownika. Jakość i precyzja promptu bezpośrednio wpływa na trafność i użyteczność odpowiedzi.
- 36. Token: Podstawowa jednostka tekstu przetwarzana przez model językowy – może to być słowo, fragment słowa lub znak interpunkcyjny. Liczba tokenów decyduje o kosztach API i pojemności kontekstu.
- 37. Context window (okno kontekstu): Maksymalna liczba tokenów, które model może przetworzyć naraz w jednym wywołaniu. Decyduje o tym, ile informacji model „widzi” podczas rozmowy. GPT-4o obsługuje ok. 128 tys. tokenów, Claude 3.5 – do 200 tys.
- 38. Temperature (temperatura): Parametr kontrolujący losowość odpowiedzi. Temperatura bliska 0 daje deterministyczne, powtarzalne wyniki – idealne do zadań faktograficznych. Wyższa wartość (np. 1.0) sprzyja kreatywności.
- 39. Inference (wnioskowanie): Uruchomienie wytrenowanego modelu na nowych danych wejściowych w celu wygenerowania odpowiedzi. Inference to etap „produkcyjny” – w odróżnieniu od kosztownego treningu.
- 40. Diffusion model: Generatywny model uczący się odwracać proces stopniowego dodawania szumu do danych. Leży u podstaw narzędzi do generowania obrazów, takich jak DALL-E, Stable Diffusion czy Midjourney.
- 41. Autoregressive model: Model generujący dane sekwencyjnie – każdy token jest produkowany na podstawie wszystkich poprzednich. Tak działają wszystkie modele z rodziny GPT i większość nowoczesnych LLM.
Vision AI i modele multimodalne – AI, które widzi (terminy 42–47)
Współczesne modele AI nie ograniczają się do tekstu. Modele multimodalne przetwarzają jednocześnie tekst, obraz, dźwięk i wideo – zbliżając się do sposobu, w jaki człowiek postrzega świat.
- 42. Computer Vision – widzenie komputerowe: Dziedzina AI umożliwiająca maszynom interpretację i analizę informacji wizualnych z obrazów i wideo. Zastosowania obejmują rozpoznawanie twarzy, kontrolę jakości w przemyśle i autonomiczne pojazdy.
- 43. Multimodal AI – AI multimodalna: Modele zdolne do przetwarzania i łączenia wielu typów danych jednocześnie: tekstu, obrazów, audio i wideo. Przykłady: GPT-4o (analizuje obrazy i generuje tekst), Gemini 1.5 Pro.
- 44. OCR (Optical Character Recognition) – optyczne rozpoznawanie znaków: Technologia konwertująca obraz tekstu (skan, zdjęcie) na edytowalny, przeszukiwalny tekst cyfrowy. Kluczowa w automatyzacji przetwarzania dokumentów.
- 45. Image segmentation – segmentacja obrazu: Zadanie polegające na przypisaniu każdego piksela obrazu do określonej klasy lub obiektu. Stosowane w diagnostyce medycznej (segmentacja guzów), autonomicznej jeździe i edycji zdjęć.
- 46. Object detection – wykrywanie obiektów: Identyfikacja i lokalizacja konkretnych obiektów na obrazie lub w sekwencji wideo z podaniem ich pozycji (bounding box). Przykłady: wykrywanie pieszych przez samochody autonomiczne, monitoring CCTV.
- 47. Multimodal embedding: Ujednolicona reprezentacja wektorowa łącząca dane z różnych modalności (tekst i obraz) w tej samej przestrzeni wektorowej. Pozwala wyszukiwać obrazy za pomocą opisu tekstowego i odwrotnie.
Agenci AI i systemy – nowa era autonomii (terminy 48–55)
AI agent to system zdolny do postrzegania środowiska, planowania i podejmowania autonomicznych działań zmierzających do wyznaczonego celu. Agenci AI są jednym z najgorętszych trendów 2026 roku – przechodzą od eksperymentów do wdrożeń produkcyjnych.
- 48. AI agent – agent AI: System percypujący środowisko i podejmujący autonomiczne działania zmierzające do wyznaczonego celu. W przeciwieństwie do chatbota agent może samodzielnie korzystać z narzędzi, przeszukiwać sieć czy uruchamiać kod.
- 49. Agentic AI: Zdolna do wieloetapowego planowania, korzystania z zewnętrznych narzędzi i samodzielnego wykonywania złożonych zadań forma AI – bez konieczności potwierdzania każdego kroku przez człowieka.
- 50. Tool use (korzystanie z narzędzi): Zdolność modelu do wywoływania zewnętrznych funkcji, API i serwisów – np. przeszukiwanie internetu, wykonywanie kodu Pythona, wysyłanie e-maili czy tworzenie plików.
- 51. Chain-of-Thought (CoT) – łańcuch myślenia: Technika promptowania zachęcająca model do rozumowania krok po kroku przed udzieleniem ostatecznej odpowiedzi. Znacząco zwiększa trafność przy złożonych problemach matematycznych i logicznych.
- 52. RAG (Retrieval-Augmented Generation): Architektura łącząca wyszukiwanie zewnętrznych dokumentów z generowaniem tekstu przez LLM. Pozwala modelowi odpowiadać na pytania o aktualne lub specjalistyczne dane bez kosztownego retrainingu. Kluczowe narzędzie w systemach enterprise.
- 53. MCP (Model Context Protocol): Otwarty standard opracowany przez Anthropic, ułatwiający podłączanie modeli AI do zewnętrznych narzędzi i źródeł danych w ustandaryzowany sposób.
- 54. Multi-agent system – system wieloagentowy: Architektura, w której wiele specjalizowanych agentów AI współpracuje, wykonując różne części złożonego zadania i komunikując się ze sobą. Pozwala rozwiązywać problemy przekraczające możliwości jednego agenta.
- 55. Vector database – baza wektorowa: Baza danych zoptymalizowana do przechowywania i przeszukiwania embeddingów (wektorów). Fundament systemów RAG – umożliwia błyskawiczne znajdowanie semantycznie podobnych dokumentów. Przykłady: Pinecone, Weaviate, Chroma.
Problemy i zachowanie modeli – czego AI nie potrafi? (terminy 56–62)
Znajomość ograniczeń i typowych błędów modeli AI jest równie ważna jak rozumienie ich możliwości. Każde z poniższych zjawisk może prowadzić do poważnych konsekwencji w środowiskach produkcyjnych.
![Słownik AI: 100 pojęć sztucznej inteligencji wyjaśnionych prostym językiem [2026]](https://techwebsite.pl/wp-content/uploads/2026/03/output-1.jpg)
- 56. Hallucination (halucynacja): Generowanie przez model przekonująco brzmiących, lecz faktycznie nieprawdziwych lub zmyślonych informacji. Jeden z największych wyzwań współczesnych LLM – modele nie „wiedzą”, że kłamią.
- 57. Overfitting (przeuczenie): Model zapamiętał dane treningowe zbyt dokładnie – razem z ich szumem i wyjątkami – i słabo generalizuje na nowe, niewidziane dane.
- 58. Underfitting (niedouczenie): Model jest zbyt prosty, aby uchwycić wzorce w danych – błęduje zarówno na danych treningowych, jak i testowych.
- 59. Bias (stronniczość modelu): Systematyczne błędy lub niesprawiedliwe wyniki wynikające z wadliwych, niezbalansowanych lub historycznie stronniczych danych treningowych. Przykład: modele rozpoznawania twarzy gorzej działające dla osób o ciemniejszej karnacji.
- 60. Alignment (zgodność z intencją): Zapewnienie, że zachowanie modeli AI jest zgodne z ludzkimi wartościami, celami i intencjami. Jeden z centralnych problemów badań nad bezpieczną AI.
- 61. Jailbreaking: Próba obejścia zabezpieczeń modelu za pomocą sprytnie skonstruowanych promptów, tak by wygenerował treści niezgodne z jego wytycznymi bezpieczeństwa.
- 62. Prompt injection: Atak polegający na wstrzyknięciu złośliwych instrukcji do promptu lub danych wejściowych modelu w celu manipulowania jego zachowaniem lub przejęcia kontroli nad agentem AI.
Bezpieczeństwo i etyka AI (terminy 63–70)
Wraz z rosnącą mocą modeli AI rosną wymagania dotyczące ich bezpiecznego i odpowiedzialnego wdrażania. Poniżej kluczowe pojęcia z obszaru AI safety i AI ethics.
- 63. Explainable AI (XAI) – wyjaśnialna AI: Metody i techniki sprawiające, że decyzje modeli AI stają się zrozumiałe i interpretowalne dla ludzi – nie tylko specjalistów. Kluczowe w zastosowaniach medycznych, finansowych i prawnych.
- 64. Red teaming: Adversarialne testowanie modeli przed wdrożeniem w celu identyfikacji słabości, trybów awarii i potencjalnych nadużyć. Grupy red team celowo próbują „złamać” model lub wyciągnąć od niego szkodliwe odpowiedzi.
- 65. Constitutional AI: Podejście do treningu modeli z użyciem zestawu zasad (konstytucji) kierujących ich zachowaniem – model uczy się oceniać własne odpowiedzi pod kątem zgodności z tymi zasadami. Technika opracowana przez Anthropic.
- 66. Guardrails (zabezpieczenia): Ograniczenia techniczne i polityki wbudowane w model, zapobiegające generowaniu szkodliwych, obraźliwych lub nielegalnych treści.
- 67. Model Card: Dokumentacja towarzysząca modelowi AI, opisująca jego możliwości, ograniczenia, dane treningowe, metryki wydajności i przeznaczenie. Standard przejrzystości w branży AI.
- 68. Data Privacy (prywatność danych): Ochrona danych osobowych na etapie zbierania, treningu i wnioskowania modeli AI. Kluczowe w kontekście RODO i regulacji AI Act.
- 69. AI Act: Pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję, uchwalone przez Unię Europejską w 2024 roku. Dzieli systemy AI na kategorie ryzyka (niedopuszczalne, wysokie, ograniczone, minimalne) i nakłada na nie odpowiednie obowiązki.
- 70. AI watermarking – znakowanie wodne AI: Technika osadzania niewidocznych znaczników w treściach generowanych przez AI (tekst, obraz, dźwięk), umożliwiająca ich późniejszą identyfikację jako wygenerowane maszynowo. Ważna dla walki z dezinformacją.
Infrastruktura i wdrożenie – co napędza modele AI? (terminy 71–80)
Za możliwościami współczesnych modeli AI stoi rozbudowana infrastruktura sprzętowa i programowa. Te pojęcia są kluczowe dla inżynierów i decydentów wdrażających AI w organizacjach.
| Nr | Termin | Definicja | Znaczenie praktyczne |
|---|---|---|---|
| 71 | API | Interfejs umożliwiający aplikacjom programistyczne korzystanie z modeli AI bez dostępu do kodu modelu. | Podstawa integracji AI w produktach |
| 72 | Latency (opóźnienie) | Czas między wysłaniem zapytania a otrzymaniem pierwszego tokenu odpowiedzi od modelu. | Kluczowe dla UX aplikacji AI |
| 73 | Throughput (przepustowość) | Liczba zapytań lub tokenów, które system AI może obsłużyć w jednostce czasu. | Planowanie pojemności infrastruktury |
| 74 | GPU | Karta graficzna – podstawowy akcelerator sprzętowy do treningu i wnioskowania modeli AI dzięki masywnie równoległej architekturze. | NVIDIA A100, H100 |
| 75 | TPU | Dedykowany układ scalony Google (Tensor Processing Unit), zoptymalizowany pod obliczenia tensorowe w AI. | Trening modeli Google (Gemini) |
| 76 | Quantization (kwantyzacja) | Redukcja precyzji parametrów modelu (np. z 32-bitowej do 8- lub 4-bitowej) w celu zmniejszenia rozmiaru i przyspieszenia wnioskowania przy zachowaniu zbliżonej jakości. | Uruchamianie LLM na CPU/laptopie |
| 77 | Distillation (destylacja wiedzy) | Trening mniejszego modelu ucznia tak, by naśladował zachowanie większego modelu nauczyciela – zachowując jakość przy ułamku kosztów. | DistilBERT, Phi-3 mini |
| 78 | Edge AI | Uruchamianie modeli AI lokalnie na urządzeniu końcowym (smartfon, czujnik) zamiast w chmurze. Niższe opóźnienia, lepsza prywatność, niezależność od sieci. | Apple Neural Engine, on-device LLM |
| 79 | Federated learning (uczenie federacyjne) | Technika treningu modelu na danych rozproszonych na wielu urządzeniach bez przenoszenia surowych danych na centralny serwer. Prywatność przez projekt. | Modele na smartfonach Google/Apple |
| 80 | Synthetic data (dane syntetyczne) | Sztuczne dane generowane przez AI używane do treningu, augmentacji zbiorów lub testowania modeli. Szczególnie cenne w domenach z ograniczoną dostępnością danych rzeczywistych (np. dane medyczne). | Augmentacja danych w CV, NLP |
Ewaluacja modeli – jak mierzymy jakość AI? (terminy 81–88)
Ocena modeli AI wymaga precyzyjnych, obiektywnych metryk. Poniżej najważniejsze z nich – każda mierzy coś innego i żadna nie wystarczy sama w sobie.
- 81. Accuracy (dokładność): Odsetek poprawnych przewidywań wśród wszystkich. Prosta i intuicyjna, ale myląca przy niezbalansowanych zbiorach danych (np. 99% próbek to jedna klasa).
- 82. Precision (precyzja): Spośród wszystkich przypadków zaklasyfikowanych przez model jako pozytywne – jaki odsetek rzeczywiście nim jest? Ważna gdy koszt fałszywego alarmu jest wysoki.
- 83. Recall (czułość): Spośród wszystkich rzeczywistych pozytywów – jaki odsetek model wykrył? Kluczowa gdy przeoczenie przypadku pozytywnego jest kosztowne (np. diagnostyka raka).
- 84. F1 Score: Średnia harmoniczna precyzji i czułości. Syntetyczna miara jakości modelu przy niezbalansowanych danych – równoważy oba podejścia.
- 85. Perplexity (perpleksja): Miara jak dobrze LLM przewiduje kolejny token w sekwencji. Im niższa, tym lepiej model „rozumie” język. Używana do porównywania modeli językowych.
- 86. BLEU Score: Automatyczna metryka oceny jakości tłumaczenia maszynowego poprzez porównanie z tłumaczeniami referencyjnymi. Wartość od 0 do 100 – wyżej oznacza bliżej ludzkiemu tłumaczeniu.
- 87. Benchmark: Standaryzowany zestaw testów używany do porównywania modeli AI w określonych zadaniach. Popularne benchmarki to MMLU (wiedza ogólna), HumanEval (kodowanie) czy GLUE (NLP).
- 88. Ground Truth (dane referencyjne): Zweryfikowane, poprawne odpowiedzi używane podczas treningu lub ewaluacji do porównania z przewidywaniami modelu. Jakość ground truth bezpośrednio determinuje jakość modelu.
Zaawansowane koncepcje – granica możliwości AI (terminy 89–100)
Te pojęcia opisują zarówno zjawiska techniczne, jak i spekulatywne teorie dotyczące przyszłości AI. Są szczególnie istotne w debacie o kierunkach i ryzykach tej technologii.
- 89. Latent space (przestrzeń ukryta): Skompresowana przestrzeń matematyczna, w której model koduje wewnętrzne reprezentacje danych. Podobne pojęcia grupują się geometrycznie blisko siebie – to tam tkwi „wiedza” modelu.
- 90. Emergent abilities (zdolności emergentne): Niespodziewane możliwości pojawiające się w dużych modelach, nieobecne w mniejszych wersjach – nie wynikające wprost z zadań treningowych. Przykład: spontaniczne zdolności arytmetyczne GPT-3 ujawniające się przy przekroczeniu pewnej skali.
- 91. Scaling laws (prawa skalowania): Empiryczne zależności opisujące, jak wydajność modelu rośnie przewidywalnie wraz z rozmiarem modelu, ilością danych i mocą obliczeniową. Odkryte przez badaczy OpenAI (Kaplan i wsp., 2020).
- 92. In-context learning (uczenie w kontekście): Zdolność LLM do adaptacji do nowych zadań wyłącznie na podstawie przykładów zawartych w prompcie – bez aktualizacji wag modelu. Odróżnia LLM od wcześniejszych systemów ML.
- 93. Mixture of Experts (MoE): Architektura modelu, w której wyspecjalizowane podsieci (eksperci) aktywują się selektywnie w zależności od danych wejściowych. Pozwala skalować model do ogromnych rozmiarów przy ograniczonym koszcie wnioskowania. Stosowana w GPT-4 i Mixtral.
- 94. Knowledge graph (graf wiedzy): Baza wiedzy reprezentująca fakty i relacje między encjami w postaci grafu. Stosowana do ustrukturyzowania wiedzy i redukcji halucynacji w systemach AI opartych na bazach wiedzy.
- 95. AI Winter – zima AI: Historyczny okres spadku zainteresowania, finansowania i postępu w badaniach nad AI, gdy wyniki nie dorównywały oczekiwaniom. Dwie zimy AI miały miejsce w latach 70. i 80./90. XX wieku. Termin stosowany dziś w ostrzeżeniach przed „bańką AI”.
- 96. Turing Test (test Turinga): Opracowany przez Alana Turinga w 1950 roku test sprawdzający, czy maszyna potrafi naśladować człowieka na tyle przekonująco, że rozmówca nie jest w stanie jej odróżnić od osoby ludzkiej.
- 97. Narrow AI – wąska AI: AI zdolna do doskonałego wykonywania jednego, konkretnego zadania – np. rozpoznawania twarzy, tłumaczenia tekstów czy grania w szachy. Wszystkie dziś istniejące systemy AI należą do tej kategorii.
- 98. AGI (Artificial General Intelligence) – sztuczna inteligencja ogólna: Hipotetyczna AI dorównująca człowiekowi we wszystkich domenach poznawczych: uczeniu się, rozumowaniu, analizie i podejmowaniu decyzji. Cel intensywnych badań OpenAI, Anthropic i DeepMind – według różnych szacunków odległy o lata lub dekady.
- 99. ASI (Artificial Superintelligence) – superinteligencja: Teoretyczna AI przewyższająca ludzką inteligencję we wszystkich dziedzinach. Jej pojawienie się – zwane osobliwością technologiczną (technological singularity) – jest przedmiotem zarówno naukowych, jak i filozoficznych debat.
- 100. Technological Singularity – osobliwość technologiczna: Hipotetyczny, przełomowy moment w historii, w którym AI staje się na tyle zaawansowana, że zaczyna samodzielnie się ulepszać w tempie przekraczającym zdolność człowieka do przewidywania lub kontrolowania dalszego rozwoju. Termin spopularyzowany przez Vernona Vinge’a i Raya Kurzweila.
Najczęściej zadawane pytania
Czym różni się machine learning od deep learning?
Machine learning to szeroka dziedzina AI, w której modele uczą się wzorców z danych bez jawnego programowania. Deep learning jest podzbiorem ML, który używa wielowarstwowych sieci neuronowych do nauki hierarchicznych reprezentacji. Każda sieć neuronowa to deep learning, ale nie każdy algorytm ML to sieć neuronowa – np. drzewa decyzyjne czy SVM to ML bez deep learning.
Co to jest hallucination w AI i jak jej unikać?
Halucynacja AI polega na generowaniu przez model informacji, które brzmią przekonująco, ale są faktycznie nieprawdziwe lub zmyślone. By ją ograniczyć, warto weryfikować odpowiedzi w wiarygodnych źródłach, korzystać z systemów RAG opartych na zweryfikowanych bazach wiedzy oraz formułować prompty z prośbą o wskazanie źródeł i przyznanie się do niepewności.
Jaka jest różnica między fine-tuningiem a RAG?
Fine-tuning modyfikuje wewnętrzne wagi modelu przez dodatkowy trening na specjalistycznych danych – model „zapamiętuje” nową wiedzę. RAG natomiast nie zmienia modelu, lecz dostarcza mu aktualne informacje w prompcie, pobierając je z zewnętrznej bazy wektorowej. RAG jest tańszy i łatwiejszy do aktualizacji, fine-tuning lepiej sprawdza się przy zmianie stylu i zachowania modelu.
Czym jest token i dlaczego ma znaczenie dla kosztów API?
Token to podstawowa jednostka tekstu przetwarzana przez model językowy – może to być słowo, fragment słowa lub znak interpunkcyjny. Dostawcy API (OpenAI, Anthropic) rozliczają koszt korzystania z modelu właśnie w tokenach. Przeciętnie 1000 tokenów odpowiada ok. 750 słowom w języku angielskim – w języku polskim ze względu na fleksję liczba tokenów na słowo jest zazwyczaj wyższa.
Jaka jest różnica między AGI a dzisiejszymi modelami AI?
Dzisiejsze modele AI to tzw. wąska AI (Narrow AI) – doskonale radzą sobie z określonymi zadaniami, ale nie posiadają ogólnej zdolności rozumowania właściwej AGI. AGI to system, który dorównywałby człowiekowi we wszystkich domenach: nowym zadaniach, planowaniu i kreatywności. Sam Altman z OpenAI szacuje, że AGI może pojawić się w ciągu kilku lat, bardziej konserwatywni badacze mówią o dekadach.
Co to jest LoRA i kiedy warto jej używać?
LoRA (Low-Rank Adaptation) to metoda fine-tuningu, która zamiast aktualizować wszystkie wagi modelu, trenuje wyłącznie niewielkie macierze niskorangowe dodane do istniejących warstw. Efekt jest porównywalny do pełnego fine-tuningu, ale koszt obliczeniowy i pamięciowy jest kilkadziesiąt razy niższy. LoRA sprawdza się świetnie, gdy chcesz dostosować duży model do specyficznego stylu lub domeny przy ograniczonym budżecie GPU.
Czym jest Edge AI i dlaczego zyska na znaczeniu?
Edge AI polega na uruchamianiu modeli sztucznej inteligencji bezpośrednio na urządzeniu końcowym zamiast w chmurze. Kluczowe zalety to niskie opóźnienia, lepsza prywatność danych i niezależność od sieci. W 2026 roku trend ten przyspiesza wraz z miniaturyzacją układów NPU w smartfonach i laptopach – Apple, Qualcomm i MediaTek wbudowują dedykowane procesory AI w większość nowych urządzeń.
Co to jest AI Act i kogo dotyczy?
AI Act to pierwsze na świecie kompleksowe prawo regulujące sztuczną inteligencję, uchwalone przez Unię Europejską w 2024 roku. Klasyfikuje systemy AI według poziomów ryzyka i nakłada odpowiednie obowiązki – od zakazu systemów niedopuszczalnych (np. social scoring) po rygorystyczne wymagania dla systemów wysokiego ryzyka (medycyna, prawo, infrastruktura krytyczna). Dotyczy każdej firmy oferującej lub wdrażającej systemy AI na terenie UE.
Podsumowanie
Terminologia AI obejmuje dziś setki pojęć – od matematycznych fundamentów (backpropagation, gradient descent, parametry) przez praktyczne narzędzia (RAG, fine-tuning, LoRA, agenci AI) aż po koncepcje filozoficzne i spekulatywne (AGI, ASI, osobliwość technologiczna). Dobra wiadomość jest taka, że nie musisz rozumieć wszystkich naraz.
Zacznij od kategorii najbardziej relevantnych dla Twojej pracy. Jeśli używasz ChatGPT lub Claude na co dzień – skup się na sekcjach o generatywnej AI, promptach i agentach. Jeśli wdrażasz AI w organizacji – kluczowe będą fine-tuning, infrastruktura, ewaluacja i AI Act. Jeśli tworzysz własne strategie promptowania, sięgnij po pojęcia z NLP, architektury modeli i Chain-of-Thought.
Ten słownik 100 pojęć AI to żywy dokument – technologia nie stoi w miejscu i terminologia ewoluuje razem z nią. Wróć do tego artykułu, gdy natrafisz na niezrozumiały termin. Słownik jest regularnie aktualizowany, by nadążać za zmianami w branży.
Źródła i dalsze informacje
- GenAI.works. „85 AI Terms Explained” – infografika terminologiczna. genai.works
- Parlament Europejski. „AI Act – pierwsze europejskie prawo w sprawie sztucznej inteligencji.” europarl.europa.eu
- Kaplan, J. i wsp. (2020). „Scaling Laws for Neural Language Models.” OpenAI. arxiv.org
- Vaswani, A. i wsp. (2017). „Attention Is All You Need.” Google Brain. arxiv.org
- Hu, E. i wsp. (2021). „LoRA: Low-Rank Adaptation of Large Language Models.” Microsoft Research. arxiv.org







