Fundamenty AI i prompt engineering
Od zerowego rozumienia jak działają modele do świadomego doboru narzędzia i pierwszych profesjonalnych promptów. Dzień kończysz z własną biblioteką 10+ gotowych poleceń.
Otwarcie szkolenia i mapa zastosowań AI w pracy i nauce
Uczestnik potrafi wskazać 9 rodzin zastosowań AI oraz dopasować do nich minimum 5 własnych zadań z pracy lub nauki. Rozumie, czym AI jest, a czym nie jest — co eliminuje 80% nieporozumień w dalszej pracy.
1. Trzy fakty-kotwice (dlaczego AI teraz)
| Fakt | Znaczenie dla Twojej pracy |
|---|---|
| Koszt spadł 200× w 2 lata (token GPT-4 → GPT-4o mini) | To co rok temu było stać tylko korporację, dziś kosztuje grosze. Automatyzacje, które były "nieopłacalne", teraz mają ROI w dniach. |
| Modele rozumują (o1, Claude 3.5/Sonnet 4, Gemini 2.5) — nie tylko autouzupełniają | Można zlecić problem wieloetapowy (analiza umowy, plan projektu) i otrzymać wynik porównywalny z juniorem specjalisty. |
| Agent = AI z narzędziami (przeglądarka, email, pliki, kalkulator, kod) | Nie tylko "rozmowa", ale wykonawca zadań. Największa zmiana technologiczna od chmury obliczeniowej. |
2. Mapa zastosowań: 9 rodzin z przykładami
Każde z tych zastosowań pokażemy w praktyce w kolejnych dniach. Teraz: rozumiesz co da się zrobić.
| # | Rodzina | Przykład biznesowy | Przykład edukacyjny | Dzień |
|---|---|---|---|---|
| 1 | Pisanie i redagowanie | Oferta handlowa z notatki ze spotkania | Abstrakt pracy dyplomowej | D1, D2 |
| 2 | Streszczanie i analiza | Podsumowanie 40 umów — główne ryzyka | 3 wykłady → mapa pojęć | D3 |
| 3 | Research i synteza | Matryca cech konkurentów | Stan wiedzy dla rozdziału | D3, D5 |
| 4 | Kodowanie i formuły | Makra Excel, formuły złożone, SQL | Skrypt do analizy ankiety | D2, D4 |
| 5 | Kreatywne i wizualne | Moodboard kampanii, mockupy | Ilustracje do prezentacji | D2 |
| 6 | Rozmowy i coaching | Przygotowanie do trudnej rozmowy | Symulacja egzaminu ustnego | D2 |
| 7 | Dane i tabele | Czyszczenie bazy klientów | Analiza ankiet | D3, D5 |
| 8 | Dokumenty wielu źródeł | 10 PDF → raport porównawczy | Literatura → bibliografia | D3 |
| 9 | Automatyzacja | Mail → klasyfikacja → CRM | Deadline tracker | D4, D5, D6 |
- Nie jest wyszukiwarką. Może odpowiedzieć źle z pełną pewnością (halucynacja). Traktuj jak juniora po studiach — zdolnego, ale wymagającego weryfikacji.
- Nie pamięta rozmów (chyba że jawnie: Memory w ChatGPT, Projekty w Claude). Każda nowa rozmowa = tabula rasa.
- Nie wie, co się wydarzyło wczoraj. Modele mają cutoff date (np. kwiecień 2024). Świeże informacje — tylko gdy model ma dostęp do Internetu.
- Nie ma "zdrowego rozsądku" w klasycznym sensie. Potrafi zliczyć litery 'r' w słowie "strawberry" źle, jeśli nie poprosisz go o policzenie po literze.
Twoja mapa zadań
- Wypisz 5 powtarzalnych zadań z Twojej pracy lub studiów (z ostatniego tygodnia).
- Dla każdego oznacz, do której rodziny (1-9) pasuje.
- Zaznacz gwiazdką zadanie, które pochłania najwięcej czasu.
- Zaznacz wykrzyknikiem zadanie, które najbardziej Cię frustruje.
- Bądź gotów podzielić się 1 wyborem w mini-rundzie (2 min/os).
Arkusz do wypełnienia znajdziesz w materiałach papierowych. Zachowaj go — wrócimy do niego w dniu 4 (agenci) i 6 (plan wdrożenia).
3. Trzy pytania, które zawsze warto zadać sobie PRZED użyciem AI
- Co dokładnie chcę dostać na wyjściu? (tekst, tabela, lista, kod, obraz — i w jakim formacie)
- Czy mogę to zweryfikować? Jeśli odpowiedzi nie sprawdzę — ryzyko halucynacji jest wysokie. Poszukaj sposobu weryfikacji (źródło, test, ekspert).
- Czy te dane mogą trafić do modelu? Zasada kciuka: nic co nie może trafić mailem do konkurencji, nie może trafić do darmowego ChatGPT. (Więcej w D2.)
- AI ≠ wyszukiwarka; AI = bardzo zdolny junior bez pamięci
- 9 rodzin zastosowań pokrywa ~95% pracy biurowej
- 3 pytania kontrolne przed każdym użyciem AI
- Twoja mapa zadań = podstawa dalszej pracy na całym szkoleniu
Fundamenty AI i ściana kontekstu — jak sprawić, by model nie gubił wątku
Rozumiesz, jak działa LLM na poziomie użytkowym (bez matematyki). Wiesz, czym jest kontekst, okno kontekstowe i "ściana". Umiesz celowo budować i ograniczać kontekst, by uzyskać powtarzalne wyniki.
1. Jak naprawdę działa LLM (wersja użytkownika)
LLM = Large Language Model. W skrócie: to program, który po każdym Twoim słowie pyta sam siebie „jakie słowo jest najbardziej prawdopodobne dalej" — i dokleja je. Powtarza to setki razy.
- Im lepszy początek (Twój prompt), tym lepsza reszta
- Model działa sekwencyjnie — nie "widzi" końca swojej odpowiedzi, kiedy pisze początek
- Dlatego struktura "najpierw plan, potem wykonanie" dramatycznie poprawia wyniki
- Dlatego "myśl krok po kroku" (chain of thought) działa
- Model nie liczy — imituje liczenie. Do liczb daj kalkulator lub kod
- Model nie pamięta poza okno kontekstu
- Model zgaduje, gdy nie wie — z pewnością siebie
- Modele bywają przypochlebne ("to świetne pytanie!") — nie traktuj tego jako ocenę
2. Okno kontekstu — czyli "pamięć krótkoterminowa" modelu
Każdy model ma limit ile tokenów (≈ słów) może "widzieć" naraz:
| Model | Okno kontekstu | Co to znaczy |
|---|---|---|
| ChatGPT (GPT-5, wersja Plus) | 128 000 tokenów (~200 stron) | Długa książka, kilkadziesiąt maili |
| Claude Sonnet 4 | 200 000 tokenów (~300 stron) | Duża umowa + załączniki |
| Gemini 2.5 Pro | 1 000 000 tokenów (~1500 stron) | Cała dokumentacja projektu |
| Modele darmowe | 8 000 – 32 000 tokenów | Kilka rozdziałów |
Model nie powie, że nie zmieściłeś wszystkiego. Najczęściej:
- Zapomina początek rozmowy (tzw. lost in the middle)
- Myli fakty z różnych dokumentów
- Zaczyna się powtarzać lub "gubić wątek"
- Halucynuje — wypełnia luki wymyślonymi danymi
3. Jak zarządzać kontekstem (techniki praktyczne)
- Nowy czat = reset. Długie rozmowy z wieloma tematami degradują jakość. Nowy temat → nowy czat.
- Najpierw cel, potem dane. Zamiast wrzucać 20 plików i pytać "co o tym sądzisz?", powiedz najpierw: "Przeczytasz 20 plików. Twoje zadanie: wypisać 5 ryzyk. Plików nie komentuj pojedynczo."
- Streszczanie na bieżąco. W długiej rozmowie co 20-30 min proś: "Podsumuj ustalenia z tej rozmowy w 10 punktach." — i nowy czat startuj od tego podsumowania.
- Rozbijaj duże zadania na kroki. Zamiast "Napisz raport z 3 spotkań" → "1) wypisz tematy spotkań, 2) dla każdego tematu wypisz decyzje, 3) z decyzji zrób raport".
Ten sam prompt z kontekstem vs bez:
Wersja A (bez kontekstu): "Napisz ofertę na usługi doradcze."
Wersja B (z kontekstem): "Jesteś doświadczonym konsultantem B2B. Napisz ofertę na 1-tygodniowy audyt procesów HR dla średniej firmy (200 osób). Klient: sieć aptek, problem: duża rotacja. Format: 1 strona A4, ton formalny ale ludzki, wycena 18 000 zł netto, 3 sekcje (Problem / Co zrobimy / Rezultat)."
Porównanie wyników → różnica 10× w użyteczności.
Eksperyment ze ścianą kontekstu
- Wrzuć do modelu długi tekst (np. artykuł, fragment książki — ok. 3000 słów) z prośbą o streszczenie.
- Teraz poproś: "Ile razy w tekście pojawia się słowo X?" (wybierz słowo występujące w pierwszych 20%).
- Sprawdź ręcznie (Ctrl+F). Czy model policzył dobrze?
- Dodaj pytanie: "W którym miejscu tekstu autor przedstawia główną tezę?"
- Sprawdź, czy model trafia — czy zgaduje.
Wniosek dla Ciebie: model świetnie streszcza, ale ma problem z precyzyjnym wyszukiwaniem i liczeniem. To nie błąd — to właściwość.
4. Słownik podstawowy (zapamiętaj)
| Pojęcie | Co znaczy |
|---|---|
| Token | Fragment tekstu, ~3/4 słowa po angielsku, ~1/2 słowa po polsku. Każdy model liczy w tokenach, nie znakach. |
| Prompt | To, co wpisujesz do modelu — polecenie, pytanie, instrukcja. |
| System prompt | Ukryta instrukcja przed Twoimi wiadomościami (zwłaszcza w Custom GPTs, Projects). Nadaje rolę. |
| Halucynacja | Model pewnie wymyśla fakty. Najczęściej dane, cytaty, nazwiska, linki. |
| Temperatura | Parametr kreatywności (0-2). Niska = przewidywalnie, wysoka = kreatywnie/chaotycznie. |
| RAG (Retrieval Augmented Generation) | Technika: model najpierw wyszukuje w bazie wiedzy, potem odpowiada. Projekty w Claude/ChatGPT używają RAG. |
| Agent | AI + narzędzia (wyszukiwarka, kod, email, kalendarz). Potrafi wykonywać akcje, nie tylko pisać. |
Wybór najlepszego narzędzia — jak odnaleźć się wśród modeli i producentów
Znasz 5 głównych rodzin narzędzi AI i wiesz, kiedy którego użyć. Masz osobistą matrycę decyzyjną: zadanie → narzędzie.
1. Mapa ekosystemu (kwiecień 2026)
| Producent | Model flagowy | Mocne strony | Słabe strony | Cena (indyw.) |
|---|---|---|---|---|
| OpenAI | GPT-5, o3 | Ekosystem (GPTs, Projekty, Canvas, Agent), głos, wizja | Ograniczenia prawne w UE (niektóre funkcje) | $20/m (Plus), $200 (Pro) |
| Anthropic | Claude Sonnet 4, Opus 4 | Najlepsze pisanie, długi kontekst, bezpieczeństwo, Artifacts | Brak generowania obrazów, słabszy głos | $20/m (Pro) |
| Gemini 2.5 Pro, Flash | Integracja z Google Workspace, 1M kontekstu, Deep Research | Mniejsza "inteligencja" w trudnych zadaniach | $20/m (Advanced) | |
| Perplexity | Sonar, Claude/GPT w środku | Wyszukiwarka AI ze źródłami, świeża wiedza | Nie jest uniwersalnym asystentem | $20/m (Pro) |
| Lokalne (Ollama, LM Studio) | Llama 3, Qwen, Mistral | Prywatność — dane nie wychodzą z komputera | Wymagania sprzętowe, słabsze wyniki | Darmowe |
2. Narzędzia specjalistyczne (nadbudowa)
- NotebookLM (Google) — idealne do pracy z wieloma dokumentami naraz, ze źródłami. Darmowe.
- ChatGPT Projects / Claude Projects — asystenci z własną bazą plików (≈ 20-30 plików).
- Cursor / GitHub Copilot — programowanie, pisanie kodu w edytorze.
- Midjourney / DALL-E 3 / Stable Diffusion — generowanie obrazów.
- ElevenLabs / Suno — głos (lektor) / muzyka.
- Make.com / n8n / Zapier — orkiestracja automatyzacji (D4).
- Otter.ai / Fireflies / tldv — transkrypcja spotkań.
3. Matryca decyzyjna — zadanie → narzędzie
| Zadanie | Pierwszy wybór | Drugi wybór | Dlaczego |
|---|---|---|---|
| Napisać długi tekst (oferta, artykuł, raport) | Claude | GPT-5 | Claude pisze naturalniej po polsku, mniej korpo |
| Szybka odpowiedź + wiedza świeża | Perplexity | ChatGPT (z wyszukiwaniem) | Cytaty ze źródeł, weryfikowalnie |
| Analiza 10-30 plików naraz | NotebookLM | Claude Projects | NotebookLM pokazuje cytaty źródłowe w tekście |
| Ogromny plik (książka, kod 1000 linii) | Gemini 2.5 Pro | Claude Sonnet 4 | Największe okno kontekstu (1M tokenów) |
| Programowanie / formuły | Claude Sonnet 4 | GPT-5, Cursor | Najwyższa jakość kodu |
| Rozmowa głosowa (rozumowanie) | ChatGPT Advanced Voice | Gemini Live | OpenAI ma najlepszy głos |
| Generowanie obrazów | ChatGPT (DALL-E/gpt-image) | Midjourney | Wygodniej w rozmowie |
| Dane wrażliwe / RODO | Claude Enterprise / Azure OpenAI / Ollama lokalnie | — | Gwarancja nie-trenowania na Twoich danych |
| Research akademicki | Gemini Deep Research | Perplexity Pro | Kilkadziesiąt źródeł, długi raport |
| Praca z Gmail/Google Docs | Gemini | — | Natywna integracja |
- Poziom 1 — publiczne, syntetyczne: darmowe ChatGPT/Claude/Gemini OK
- Poziom 2 — wewnętrzne, nie-poufne: wersje Plus/Pro (opcja "nie trenuj na moich danych" — WŁĄCZ)
- Poziom 3 — poufne, dane osobowe, tajemnica firmy: Enterprise (ChatGPT Team/Enterprise, Claude Enterprise, Azure OpenAI), wersje on-premise, lub modele lokalne (Ollama)
Złota zasada kciuka: nic, co nie może trafić mailem do konkurencji, nie może trafić do darmowego ChatGPT.
Twoja matryca narzędzi
- Weź 5 zadań z Ćwiczenia 1.
- Dla każdego wybierz z matrycy powyżej pierwsze i drugie narzędzie.
- Wskaż poziom prywatności (1/2/3).
- Dla 1 zadania (to, które masz teraz pod ręką) — otwórz oba narzędzia i zrób szybki test tego samego promptu.
- Zapisz obserwacje: które brzmi lepiej? które szybsze? które ma lepszy format?
- Nie ma "najlepszego modelu" — jest najlepszy model do zadania
- Darmowe wersje wystarczą do 60-70% pracy; płatne otwierają asystentów, pliki, głos
- Przed każdym zadaniem: sprawdź poziom prywatności i dobierz narzędzie
- Warto mieć 2-3 narzędzia aktywne i porównywać ważne wyniki
Profesjonalny prompt — jak precyzyjnie instruować AI
Znasz framework RCKFO (Rola-Cel-Kontekst-Format-Ograniczenia). Potrafisz zamienić ogólne polecenie w profesjonalny prompt. Masz własne 3 prompty gotowe do codziennej pracy.
1. Framework RCKFO — pięć elementów profesjonalnego promptu
| Litera | Element | Pytanie kontrolne | Przykład |
|---|---|---|---|
| R | Rola / persona | Kim ma być model? | "Jesteś doświadczonym prawnikiem specjalizującym się w prawie pracy." |
| C | Cel / zadanie | Co dokładnie ma zrobić? | "Przeanalizuj umowę pod kątem ryzyk dla pracodawcy." |
| K | Kontekst / dane | Co model musi wiedzieć? | "Firma: 50 osób, branża IT, umowa z programistą B2B, planowany start 1.06.2026. Dane w załączniku." |
| F | Format wyniku | Jak ma wyglądać odpowiedź? | "Tabela: Ryzyko | Poziom (N/Ś/W) | Rekomendacja. Max 10 pozycji. Pod tabelą 2 zdania podsumowania." |
| O | Ograniczenia | Czego unikać, na co uważać? | "Nie interpretuj rzeczy, o których brak danych w umowie. Zaznacz takie punkty jako 'DO USTALENIA'." |
2. Anatomia zbudowanego promptu (szablon)
3. Przed/Po — zobacz różnicę
❌ Prompt słaby
✅ Prompt profesjonalny
4. 7 technik zaawansowanych
- Myślenie krok po kroku — "Zanim odpowiesz, zaplanuj najpierw 3 kroki rozwiązania, potem wykonaj."
- Few-shot (przykłady w prompcie) — "Oto 2 przykłady dobrych odpowiedzi: [X, Y]. Zrób trzeci w tym samym stylu."
- Rola ekspercka — nie "pomóż mi", tylko "jesteś X z 15 lat doświadczenia w Y".
- Strukturalne wyjście — "Odpowiedz w formacie JSON z polami: title, tags[], summary." (świetne do automatyzacji).
- Samo-krytyka — "Napisz wersję 1. Potem wskaż 3 słabości wersji 1. Potem napisz wersję 2 poprawiającą te słabości."
- Odwrotny prompt — "Zanim odpowiesz na moje pytanie, zadaj mi 3 pytania, które pomogą Ci lepiej odpowiedzieć."
- Separator ### — używaj wyraźnych separatorów między sekcjami: "### KONTEKST ###", "### ZADANIE ###" — to dramatycznie poprawia uważność modelu.
Pierwszy profesjonalny prompt
- Wybierz 1 zadanie z Ćwiczenia 1 (najlepiej to, które frustruje).
- Napisz dla niego prompt według RCKFO (szablon powyżej).
- Uruchom go w swoim narzędziu.
- Oceń wynik w 3 wymiarach: trafność / przydatność / oszczędność czasu.
- Popraw prompt w 1-2 miejscach (np. dodaj przykład, zaostrz format) i uruchom ponownie.
- Zapisz finalną wersję w swojej bibliotece (blok 5).
5. Mini-biblioteka 10 startowych promptów
- Framework RCKFO zamienia losowe pytania w zlecenia z wysoką jakością
- Rola + Format + Ograniczenia = 80% różnicy jakości
- Przykład w prompcie (few-shot) to najmocniejsza technika
- Dobry prompt pisze się tak długo jak dobrą instrukcję dla asystenta
Porządkowanie własnych zasobów i biblioteka sprawdzonych poleceń
Masz uruchomioną własną bibliotekę promptów, system kategoryzacji i wersjonowania. Wiesz, jak dzielić się nią z zespołem.
1. Dlaczego biblioteka, a nie ściąga w głowie
- Powtarzalność — ten sam prompt = ten sam poziom jakości. Bez biblioteki za każdym razem piszesz "mniej więcej tak samo, ale gorzej".
- Skala — 1 dobry prompt × 100 użyć/miesiąc = realne oszczędności
- Iteracja — poprawiasz prompt raz, zyskujesz na każdym kolejnym użyciu
- Dzielenie się — zespół, który ma wspólną bibliotekę, pracuje 3-5× szybciej
2. Struktura pliku promptu (standard)
3. Jak kategoryzować - 3 podejścia do wyboru
| Podejście | Kiedy | Przykład kategorii |
|---|---|---|
| Po celu biznesowym | Sprzedaż, marketing, HR | Sprzedaż / Rekrutacja / Obsługa klienta / Raporty |
| Po rodzinie zastosowań (z bloku 1) | Uniwersalne — dobre dla specjalistów | Pisanie / Analiza / Research / Dane / Kreacja |
| Po częstotliwości | Skupienie na ROI | Codzienne / Tygodniowe / Miesięczne / Ad-hoc |
4. Gdzie trzymać bibliotekę (praktycznie)
- Notion — najwygodniejszy, wyszukiwanie, tagi
- Obsidian / Markdown w chmurze — dla zaawansowanych
- OneNote / Evernote — jeśli już używasz
- Plik Excel/Sheets — minimum-viable, zawsze działa
- ChatGPT "Teksty" w Ustawieniach — nowa funkcja (2025)
- Notion / Confluence — współdzielenie, komentarze
- GitHub / GitLab — dla techniczniaków, wersjonowanie
- PromptLayer / Humanloop — dla firm-użytkowników AI w produkcie
- Custom GPTs / Claude Projects — dzielone przez workspace
Uruchom swoją bibliotekę
- Wybierz narzędzie (Notion / Sheets / MD — byle jedno).
- Utwórz tam strukturę z szablonem metadanych powyżej.
- Wklej swój prompt z Ćwiczenia 4 (w pełnej wersji + przykład wejścia/wyjścia).
- Dodaj 3 z 10 startowych promptów (te najbardziej dla Ciebie).
- Zaproponuj nazwę systemu kategoryzacji dopasowaną do Twojej roli.
- Wyznacz sobie cel: dopisywać 2 prompty tygodniowo przez kolejne 3 miesiące → 24 promptów.
5. Konwencja nazewnictwa (mała rzecz, duża różnica)
Dobra nazwa promptu pozwala znaleźć go w 3 sekundy. Proponowany wzór:
[kategoria]-[czasownik]-[obiekt]-[wersja]
Przykłady:
oferta-przygotuj-B2B-v2mail-analizuj-priorytet-v1raport-wykryj-sprzeczności-v3rekrutacja-generuj-pytania-senior-v1
- Znasz 9 rodzin zastosowań i umiesz przypisać do nich swoje zadania
- Rozumiesz, jak działa LLM i jak nim zarządzać (kontekst, ściana)
- Umiesz wybrać narzędzie świadomie — masz matrycę decyzyjną
- Framework RCKFO zamienia losowe pytania w profesjonalne prompty
- Masz uruchomioną bibliotekę z co najmniej 4 promptami
Domówka na wieczór (opcjonalnie): napisz 2 kolejne prompty do Twojej biblioteki — na zadania z jutra/pojutrza. Jutro budujemy z tego asystenta.