Twoje prompty nie działają? Artur Janas ekspert AI podpowie, co poprawić, aby były efektywne i realizowały Twoje cele biznesowe.
Pobierz “E-book odcinek 94” 94_Jak-rozmawiac-z-AI-zeby-dowozilo-nasze-cele-Artur-Janas.pdf – Pobrano 169 razy – 656,54 KBDziałasz w e-biznesie? Pamiętaj o ofercie narzędzi dla e-biznesu (domeny z całego świata, bezpieczny i szybki hosting) od Domeny.tv MSERWIS.
Plan rozmowy z Arturem:
Jak rozmawiać z AI, żeby dowoziło nasze cele — streszczenie rozmowy z Arturem Janasem
Krótko i na temat: ten odcinek „Złapanych w sieć” rozbiera promptowanie na czynniki pierwsze. Artur Janas pokazuje, jak pisać polecenia do modeli LLM (ChatGPT, Gemini, Claude, Perplexity), żeby realnie osiągać cele — nie tylko marketingowe. Marcin Pieleszek prowadzi rozmowę tak, by przejść od definicji „dobrego wyniku”, przez 5-etapowy schemat promptu, po diagnostykę, ewaluację, pracę na własnych źródłach (PDF, YouTube, książki), powtarzalność, a na pułapkach automatyzacji kończąc.
Najważniejsze wnioski
- Dobry wynik = spełnione, jasno zdefiniowane założenia i Twoja subiektywna satysfakcja z efektu.
- Nie pisz do LLM jak do człowieka. To maszyna. Daj kompletne, precyzyjne dane wejściowe.
- Stosuj 5-etapowy szkielet promptu + dwa pytania końcowe i komendę „reset”: rola → problem → kształt rozwiązania → założenia → (potem) „Czy zrozumiałeś zadanie?” + „Zadaj pytania kontrolne” → komenda powtarzalności.
- Pytania kontrolne są kluczowe. Model dopytuje, Ty szybko korygujesz, więc końcowy wynik trafia w cel.
- Diagnozuj słabe wyniki: sprawdź strukturę promptu, zweryfikuj założenia, porównaj w innym LLM. Gdy widać halucynacje — zamknij czat i zacznij od nowa.
- Długość promptu „to zależy”. Proste zadania — krótko; złożone procesy — długo i z akapitami.
- Pracuj na własnych źródłach (PDF, materiały, filmy), wymuś: „KORZYSTAJ TYLKO Z ZAŁĄCZNIKÓW”.
- Buduj asystentów, nie ślepych agentów. Asystent = kontrola i powtarzalność.
- Zawsze pisz prompty poza czatem (edytor), wersjonuj i wklejaj do nowych wątków.
Kim jest gość i czego dotyczy odcinek
Artur Janas — wykładowca i praktyk AI — opowiada, jak uporządkować proces pracy z modelami językowymi, żeby dowozić cele biznesowe. Odcinek ma wyraźny plan sekcji (m.in. „dobry wynik”, „modele mentalne”, „5-etapowe minimum w briefie”, pytania kontrolne, diagnozowanie słabości, testy A/B, długość promptu, ograniczenia i formaty, dzielenie zadań na kroki, projektowanie eksperta/asystenta AI, przykłady z praktyki). Szczegóły, timestampy i linki do segmentów znajdują się na stronie odcinka. Złapani w sieć
O co pytał prowadzący (Marcin Pieleszek) i jak odpowiadał gość (Artur Janas)
1) Co to znaczy „dobry wynik” od chata LLM?
- Pytanie Marcina: czy istnieje „dobry wynik” i jak go mierzyć?
- Odpowiedź Artura: tak — dobry wynik masz wtedy, gdy spełnia Twoje wstępne założenia i jesteś z niego zadowolony. Satysfakcja bywa subiektywna, dlatego precyzyjnie definiuj cel X jeszcze przed wpisaniem promptu.
2) Jak w ogóle zacząć promptowanie?
- Pytanie Marcina: od czego zacząć?
- Odpowiedź Artura: nie komunikuj się z LLM jak z człowiekiem. To program. Słabe dane wejściowe = słabe wyjście. Trzeba więc standaryzować sposób zadawania poleceń.
3) „Modele mentalne” i sposób myślenia o AI
- Pytanie Marcina: jakie podejście daje przewagę?
- Odpowiedź Artura: mniej „modeli mentalnych”, więcej rozumienia procesu komunikacji. LLM nie rozumie świata, przewiduje następne tokeny według prawdopodobieństwa. Dostarcz porządny brief i wymuś dopytanie (pytania kontrolne), żeby doprecyzować to, czego chcesz.
4) 5-etapowe minimum w każdym briefie do AI
- Pytanie Marcina: co musi zawierać dobry brief?
- Odpowiedź Artura: zastosuj 5 kroków:
- Rola — zawężasz obszar (np. „Jesteś strategiem marketingu B2B w branży IT w PL”).
- Problem — co chcesz osiągnąć (np. „potrzebuję planu kampanii z leadami w 30 dni”).
- Kształt rozwiązania — jak ma wyglądać wynik (np. sekcje, listy, KPI, przykład).
- Założenia — dane wejściowe, ograniczenia, źródła, docelowa grupa.
- Dwa zdania na koniec:
- „Czy zrozumiałeś zadanie?” — model streszcza zrozumienie, Ty korygujesz.
- „Zadaj pytania kontrolne” — model dopytuje o brakujące dane.
- Powtarzalność (krok 6 — praktyczny): dodaj komendę-hasło (np. „RESET”), która czyści kontekst i startuje proces od nowa na żądanie.
5) Dlaczego pytania kontrolne są krytyczne?
- Pytanie Marcina: po co w kółko dopytywać?
- Odpowiedź Artura: bo nie przewidzisz wszystkiego. Pytania kontrolne domykają luki i minimalizują ryzyko błędów jeszcze przed wygenerowaniem wyniku.
6) Jak diagnozować słabe wyniki promptowania?
- Pytanie Marcina: co robić, gdy AI „nie dowozi”?
- Odpowiedź Artura:
- Sprawdź strukturę: rola → problem → kształt → założenia → kontrola zrozumienia → pytania.
- Zweryfikuj założenia: może oczekujesz czegoś, czego model nie potrafi (np. „matematyczny model emocji” — dziś nie do zrobienia).
- Weryfikuj wyniki w innym LLM, gdy coś „śmierdzi”.
- Gdy widać halucynacje — zamknij czat, zacznij nowy wątek. Naprostowywanie halucynującego wątku zwykle nie pomaga.
7) Czy warto robić ewaluację i testy A/B promptów?
- Pytanie Marcina: czy porównywać warianty?
- Odpowiedź Artura: tak. Stwórz prompt A i prompt B, uruchom w modelu C porównanie według zadanych kryteriów (np. trafność, zgodność z briefem, kompletność, zero halucynacji).
8) Długość promptu — czy „dłużej” znaczy „lepiej”?
- Pytanie Marcina: czy każdy prompt ma mieć dwie strony?
- Odpowiedź Artura: to zależy od złożoności zadania. Krótkie polecenie wystarczy do prostych zapytań; rozbudowany prompt (nawet „dwie strony”) jest potrzebny dla wielostopniowych procesów (np. „wirtualny nauczyciel” czy strategia marketingowa).
9) Ograniczenia i formaty — jak pisać, żeby się nie pogubić?
- Pytanie Marcina: jakie zasady formatowania pomagają?
- Odpowiedź Artura: pisz akapitami, czytelnie, z interpunkcją i sekcjami. Wyróżniaj rzeczy ważne (w razie potrzeby PISZ WIELKIMI LITERAMI). To ułatwia i Tobie, i modelowi.
- Praktyka: nie pisz promptów od zera w oknie czatu. Twórz je w edytorze (wersjonowanie!), a do czatu wklejaj gotowe.
10) Dzielenie zadań na kroki i praca w pętlach
- Pytanie Marcina: czy można „zapętlać” proces i bazować na wcześniejszych wynikach?
- Odpowiedź Artura: tak, ale pod kontrolą. Przykład pisania e-booka:
- Najpierw spis treści, potem rozdział 1, rozdział 2…
- Wklejaj do kolejnych promptów ten sam spis treści (nie zakładaj, że model pamięta go identycznie).
- Proś o dokładki (np. „dodaj case 500 znaków, storytelling, bohater X, problem Y, efekt Z”).
11) Jak pracować na własnych źródłach (PDF, YouTube, książki)?
- Pytanie Marcina: czy warto wskazywać konkretne materiały i autorów?
- Odpowiedź Artura: tak. Wymuś komendą, by model korzystał tylko z Twoich załączników/źródeł.
- PDF: poproś o wydobycie kluczowych pól, listę tak/nie, lokalizacje fragmentów w dokumencie i podsumowanie z uzasadnieniem.
- YouTube: podaj link, model oprze się na opisie/transkrypcji i może wskazać minutę z daną informacją.
- Książki: model często „zna” treści, ale nie może wyświetlić chronionych fragmentów. Rozmawiaj w oparciu o spis treści, tezy, pytania.
- Narzędzia typu NotebookLM pomagają budować „notatnik wiedzy” na Twoich źródłach — zasada jednak ta sama: zamyknij kontekst na wskazane materiały (żeby nie dopisywał bibliografii „z kosmosu”).
12) Jak projektować „eksperta AI” do stałych zadań (asystenta)?
- Pytanie Marcina: jak zapewnić powtarzalność bez automatyzacji, która „odjeżdża”?
- Odpowiedź Artura: stwórz asystenta (zestaw komend i kroków), który:
- startuje od listy pytań (pytania kontrolne),
- przechodzi do kolejnego etapu dopiero po komendzie (np.
DALEJ), - ma komendę RESET (czyszczenie kontekstu).
- Uwaga na automatyzację/agentów: w aktualnym stanie rynku asystenci dają większą kontrolę i stabilność niż agenci z dużą „samodecyzyjnością”.
13) Przykłady z praktyki i ostrzeżenia
- Case 1 — analiza PDF-ów: Artur opisał proces, w którym model: wgrywa plik, wyciąga pola, robi checklistę, dopytuje o brakujące metadane (np. data wpływu), a na końcu generuje werdykt z uzasadnieniem i odniesieniami do miejsc w dokumencie.
- Case 2 — social media dla wielu branż: gdy jednym wątkiem tworzysz posty dla różnych firm, kontekst się miesza. Rozwiązanie: komenda RESET lub osobne czaty na każdą markę.
- Ostrzeżenie przed halucynacjami: gdy złapiesz model na „fantazjowaniu”, zamknij wątek i zacznij świeży.
- Ostrzeżenie przed ślepą automatyzacją: Artur przestrzega przed „modą na agentów” i martwym internetem. Powtarza: kontrola człowieka musi zostać w procesie.
Rzeczy, które warto wdrożyć od ręki
Szkielet promptu (kopiuj/wklej i dopasuj)
- Rola: „Jesteś [rola], działasz w [branża/rynek], piszesz po [język], styl [ton]”.
- Problem/Cel: „Celem jest [konkretnie, mierzalnie, czasowo]”.
- Kształt wyniku: „Zwróć wynik w formie: [sekcje/listy/tabela/KPI/przykłady]”.
- Założenia: „Dane wejściowe: [linki/załączniki/persona/budżet/zakres/technologie]. Ograniczenia: [co wolno, czego nie]”.
- Kontrola:
- „Czy zrozumiałeś zadanie? Streść w punktach.”
- „Zadaj pytania kontrolne, zanim zaczniesz.”
- Powtarzalność: „Na komendę
RESETzapominasz kontekst i wracasz do kroku 1.”
Zasady higieny pracy
- Prompty twórz w edytorze (wersje, historia zmian).
- Każda marka/temat — osobny wątek albo RESET na przełączanie.
- Własne źródła? Dodaj: „KORZYSTAJ TYLKO Z ZAŁĄCZONYCH MATERIAŁÓW”.
- Wątpliwości? Krzyżowo weryfikuj w innym LLM.
- Halucynacje? Nowy czat i od nowa.
Co dokładnie omawia Artur?
- Definicja „dobrego wyniku”: wynik zgodny z briefem i oczekiwanym kształtem (format odpowiedzi, KPI, zakres).
- LLM jako predyktor tekstu: nie „rozumie” jak człowiek; przewiduje tokeny według rozkładu prawdopodobieństwa, dlatego brief + kontrola to mus.
- Brief/Prompt jako mini-program: piszesz „kod” zdaniami — logika i precyzja robią różnicę.
- Pytania kontrolne: realny „game changer” — model prosi o dane, których nie podałeś, więc później nie strzela.
- Diagnostyka: nie wierz ślepo; stawiaj kryteria oceny (trafność, kompletność, wierność źródłom, brak halucynacji).
- Testy A/B: konkurencyjne prompty, ocena trzecim LLM według Twoich kryteriów.
- Długość: dopasuj objętość do złożoności; strategia ≠ jedno zdanie.
- Źródła własne: PDF-y, filmiki, książki — zamykanie kontekstu na Twoich materiałach eliminuje „zmyślone” bibliografie.
- Powtarzalność: komendy sterujące (
RESET,DALEJ) + etapowy przepływ pracy. - Automatyzacja vs asystenci: buduj 10 małych asystentów zamiast jednego nieprzewidywalnego „agenta”.
- Praktyka social: separuj konteksty, bo LLM miesza styl i fakty między branżami.


