94: Jak rozmawiać z AI, żeby dowoziło nasze cele?

Artur Janas


SpreakerApple PodcastsGoogle PodcastsSpotify Facebook YouTube LinkedIn

Twoje prompty nie działają? Artur Janas ekspert AI podpowie, co poprawić, aby były efektywne i realizowały Twoje cele biznesowe.

Pobierz “E-book odcinek 94” 94_Jak-rozmawiac-z-AI-zeby-dowozilo-nasze-cele-Artur-Janas.pdf – Pobrano 170 razy – 656,54 KB

Działasz w e-biznesie? Pamiętaj o ofercie narzędzi dla e-biznesu (domeny z całego świata, bezpieczny i szybki hosting) od Domeny.tv MSERWIS.

Plan rozmowy z Arturem:

03:20 🧭 Co to znaczy „dobry wynik” od chata AI LLM?

12:30 🧠 Jakie modele mentalne w AI dają przewagę przy tworzeniu promptów?

15:50🖐️ Jakie powinno być Twoje 5-etapowe minimum w każdym briefie do AI?

21:00❓ Jaką rolę odgrywają pytania kontrolne? 

23:37🩺 Jak diagnozować słabe wyniki promptowania?

25:19🧪 Czy ewaluacja wyników i testy A/B promptów są ważne?

31:44 📏 Czy długość promptu ma znaczenie?

34:31 📐 Jakie stosować ograniczenia i formaty przy promptowaniu?

36:29 🪜 Jak dzielić zadania na kroki?

43:36 🛠️ Jak zacząć projektować „eksperta AI” do stałych zadań?

45:33🚀 Jakie są przykłady promptów z praktyki dających najlepsze rezultaty?

Jak rozmawiać z AI, żeby dowoziło nasze cele — streszczenie rozmowy z Arturem Janasem

Krótko i na temat: ten odcinek „Złapanych w sieć” rozbiera promptowanie na czynniki pierwsze. Artur Janas pokazuje, jak pisać polecenia do modeli LLM (ChatGPT, Gemini, Claude, Perplexity), żeby realnie osiągać cele — nie tylko marketingowe. Marcin Pieleszek prowadzi rozmowę tak, by przejść od definicji „dobrego wyniku”, przez 5-etapowy schemat promptu, po diagnostykę, ewaluację, pracę na własnych źródłach (PDF, YouTube, książki), powtarzalność, a na pułapkach automatyzacji kończąc.

Najważniejsze wnioski

  • Dobry wynik = spełnione, jasno zdefiniowane założenia i Twoja subiektywna satysfakcja z efektu.
  • Nie pisz do LLM jak do człowieka. To maszyna. Daj kompletne, precyzyjne dane wejściowe.
  • Stosuj 5-etapowy szkielet promptu + dwa pytania końcowe i komendę „reset”: rola → problem → kształt rozwiązania → założenia → (potem) „Czy zrozumiałeś zadanie?” + „Zadaj pytania kontrolne”komenda powtarzalności.
  • Pytania kontrolne są kluczowe. Model dopytuje, Ty szybko korygujesz, więc końcowy wynik trafia w cel.
  • Diagnozuj słabe wyniki: sprawdź strukturę promptu, zweryfikuj założenia, porównaj w innym LLM. Gdy widać halucynacje — zamknij czat i zacznij od nowa.
  • Długość promptu „to zależy”. Proste zadania — krótko; złożone procesy — długo i z akapitami.
  • Pracuj na własnych źródłach (PDF, materiały, filmy), wymuś: „KORZYSTAJ TYLKO Z ZAŁĄCZNIKÓW”.
  • Buduj asystentów, nie ślepych agentów. Asystent = kontrola i powtarzalność.
  • Zawsze pisz prompty poza czatem (edytor), wersjonuj i wklejaj do nowych wątków.

Kim jest gość i czego dotyczy odcinek

Artur Janas — wykładowca i praktyk AI — opowiada, jak uporządkować proces pracy z modelami językowymi, żeby dowozić cele biznesowe. Odcinek ma wyraźny plan sekcji (m.in. „dobry wynik”, „modele mentalne”, „5-etapowe minimum w briefie”, pytania kontrolne, diagnozowanie słabości, testy A/B, długość promptu, ograniczenia i formaty, dzielenie zadań na kroki, projektowanie eksperta/asystenta AI, przykłady z praktyki). Szczegóły, timestampy i linki do segmentów znajdują się na stronie odcinka. Złapani w sieć

O co pytał prowadzący (Marcin Pieleszek) i jak odpowiadał gość (Artur Janas)

1) Co to znaczy „dobry wynik” od chata LLM?

  • Pytanie Marcina: czy istnieje „dobry wynik” i jak go mierzyć?
  • Odpowiedź Artura: tak — dobry wynik masz wtedy, gdy spełnia Twoje wstępne założenia i jesteś z niego zadowolony. Satysfakcja bywa subiektywna, dlatego precyzyjnie definiuj cel X jeszcze przed wpisaniem promptu.

2) Jak w ogóle zacząć promptowanie?

  • Pytanie Marcina: od czego zacząć?
  • Odpowiedź Artura: nie komunikuj się z LLM jak z człowiekiem. To program. Słabe dane wejściowe = słabe wyjście. Trzeba więc standaryzować sposób zadawania poleceń.

3) „Modele mentalne” i sposób myślenia o AI

  • Pytanie Marcina: jakie podejście daje przewagę?
  • Odpowiedź Artura: mniej „modeli mentalnych”, więcej rozumienia procesu komunikacji. LLM nie rozumie świata, przewiduje następne tokeny według prawdopodobieństwa. Dostarcz porządny brief i wymuś dopytanie (pytania kontrolne), żeby doprecyzować to, czego chcesz.

4) 5-etapowe minimum w każdym briefie do AI

  • Pytanie Marcina: co musi zawierać dobry brief?
  • Odpowiedź Artura: zastosuj 5 kroków:
    1. Rola — zawężasz obszar (np. „Jesteś strategiem marketingu B2B w branży IT w PL”).
    2. Problem — co chcesz osiągnąć (np. „potrzebuję planu kampanii z leadami w 30 dni”).
    3. Kształt rozwiązania — jak ma wyglądać wynik (np. sekcje, listy, KPI, przykład).
    4. Założenia — dane wejściowe, ograniczenia, źródła, docelowa grupa.
    5. Dwa zdania na koniec:
      • Czy zrozumiałeś zadanie?” — model streszcza zrozumienie, Ty korygujesz.
      • Zadaj pytania kontrolne” — model dopytuje o brakujące dane.
    • Powtarzalność (krok 6 — praktyczny): dodaj komendę-hasło (np. „RESET”), która czyści kontekst i startuje proces od nowa na żądanie.
    Artur podkreśla: to gwarancja jakości i spójności między modelami (ChatGPT/Gemini/Claude/Perplexity).

5) Dlaczego pytania kontrolne są krytyczne?

  • Pytanie Marcina: po co w kółko dopytywać?
  • Odpowiedź Artura: bo nie przewidzisz wszystkiego. Pytania kontrolne domykają luki i minimalizują ryzyko błędów jeszcze przed wygenerowaniem wyniku.

6) Jak diagnozować słabe wyniki promptowania?

  • Pytanie Marcina: co robić, gdy AI „nie dowozi”?
  • Odpowiedź Artura:
    • Sprawdź strukturę: rola → problem → kształt → założenia → kontrola zrozumienia → pytania.
    • Zweryfikuj założenia: może oczekujesz czegoś, czego model nie potrafi (np. „matematyczny model emocji” — dziś nie do zrobienia).
    • Weryfikuj wyniki w innym LLM, gdy coś „śmierdzi”.
    • Gdy widać halucynacjezamknij czat, zacznij nowy wątek. Naprostowywanie halucynującego wątku zwykle nie pomaga.

7) Czy warto robić ewaluację i testy A/B promptów?

  • Pytanie Marcina: czy porównywać warianty?
  • Odpowiedź Artura: tak. Stwórz prompt A i prompt B, uruchom w modelu C porównanie według zadanych kryteriów (np. trafność, zgodność z briefem, kompletność, zero halucynacji).

8) Długość promptu — czy „dłużej” znaczy „lepiej”?

  • Pytanie Marcina: czy każdy prompt ma mieć dwie strony?
  • Odpowiedź Artura: to zależy od złożoności zadania. Krótkie polecenie wystarczy do prostych zapytań; rozbudowany prompt (nawet „dwie strony”) jest potrzebny dla wielostopniowych procesów (np. „wirtualny nauczyciel” czy strategia marketingowa).

9) Ograniczenia i formaty — jak pisać, żeby się nie pogubić?

  • Pytanie Marcina: jakie zasady formatowania pomagają?
  • Odpowiedź Artura: pisz akapitami, czytelnie, z interpunkcją i sekcjami. Wyróżniaj rzeczy ważne (w razie potrzeby PISZ WIELKIMI LITERAMI). To ułatwia i Tobie, i modelowi.
  • Praktyka: nie pisz promptów od zera w oknie czatu. Twórz je w edytorze (wersjonowanie!), a do czatu wklejaj gotowe.

10) Dzielenie zadań na kroki i praca w pętlach

  • Pytanie Marcina: czy można „zapętlać” proces i bazować na wcześniejszych wynikach?
  • Odpowiedź Artura: tak, ale pod kontrolą. Przykład pisania e-booka:
    • Najpierw spis treści, potem rozdział 1, rozdział 2
    • Wklejaj do kolejnych promptów ten sam spis treści (nie zakładaj, że model pamięta go identycznie).
    • Proś o dokładki (np. „dodaj case 500 znaków, storytelling, bohater X, problem Y, efekt Z”).

11) Jak pracować na własnych źródłach (PDF, YouTube, książki)?

  • Pytanie Marcina: czy warto wskazywać konkretne materiały i autorów?
  • Odpowiedź Artura: tak. Wymuś komendą, by model korzystał tylko z Twoich załączników/źródeł.
    • PDF: poproś o wydobycie kluczowych pól, listę tak/nie, lokalizacje fragmentów w dokumencie i podsumowanie z uzasadnieniem.
    • YouTube: podaj link, model oprze się na opisie/transkrypcji i może wskazać minutę z daną informacją.
    • Książki: model często „zna” treści, ale nie może wyświetlić chronionych fragmentów. Rozmawiaj w oparciu o spis treści, tezy, pytania.
    • Narzędzia typu NotebookLM pomagają budować „notatnik wiedzy” na Twoich źródłach — zasada jednak ta sama: zamyknij kontekst na wskazane materiały (żeby nie dopisywał bibliografii „z kosmosu”).

12) Jak projektować „eksperta AI” do stałych zadań (asystenta)?

  • Pytanie Marcina: jak zapewnić powtarzalność bez automatyzacji, która „odjeżdża”?
  • Odpowiedź Artura: stwórz asystenta (zestaw komend i kroków), który:
    • startuje od listy pytań (pytania kontrolne),
    • przechodzi do kolejnego etapu dopiero po komendzie (np. DALEJ),
    • ma komendę RESET (czyszczenie kontekstu).
  • Uwaga na automatyzację/agentów: w aktualnym stanie rynku asystenci dają większą kontrolę i stabilność niż agenci z dużą „samodecyzyjnością”.

13) Przykłady z praktyki i ostrzeżenia

  • Case 1 — analiza PDF-ów: Artur opisał proces, w którym model: wgrywa plik, wyciąga pola, robi checklistę, dopytuje o brakujące metadane (np. data wpływu), a na końcu generuje werdykt z uzasadnieniem i odniesieniami do miejsc w dokumencie.
  • Case 2 — social media dla wielu branż: gdy jednym wątkiem tworzysz posty dla różnych firm, kontekst się miesza. Rozwiązanie: komenda RESET lub osobne czaty na każdą markę.
  • Ostrzeżenie przed halucynacjami: gdy złapiesz model na „fantazjowaniu”, zamknij wątek i zacznij świeży.
  • Ostrzeżenie przed ślepą automatyzacją: Artur przestrzega przed „modą na agentów” i martwym internetem. Powtarza: kontrola człowieka musi zostać w procesie.

Rzeczy, które warto wdrożyć od ręki

Szkielet promptu (kopiuj/wklej i dopasuj)

  1. Rola: „Jesteś [rola], działasz w [branża/rynek], piszesz po [język], styl [ton]”.
  2. Problem/Cel: „Celem jest [konkretnie, mierzalnie, czasowo]”.
  3. Kształt wyniku: „Zwróć wynik w formie: [sekcje/listy/tabela/KPI/przykłady]”.
  4. Założenia: „Dane wejściowe: [linki/załączniki/persona/budżet/zakres/technologie]. Ograniczenia: [co wolno, czego nie]”.
  5. Kontrola:
    • Czy zrozumiałeś zadanie? Streść w punktach.”
    • Zadaj pytania kontrolne, zanim zaczniesz.”
  6. Powtarzalność: „Na komendę RESET zapominasz kontekst i wracasz do kroku 1.”

Zasady higieny pracy

  • Prompty twórz w edytorze (wersje, historia zmian).
  • Każda marka/temat — osobny wątek albo RESET na przełączanie.
  • Własne źródła? Dodaj: „KORZYSTAJ TYLKO Z ZAŁĄCZONYCH MATERIAŁÓW”.
  • Wątpliwości? Krzyżowo weryfikuj w innym LLM.
  • Halucynacje? Nowy czat i od nowa.

Co dokładnie omawia Artur?

  • Definicja „dobrego wyniku”: wynik zgodny z briefem i oczekiwanym kształtem (format odpowiedzi, KPI, zakres).
  • LLM jako predyktor tekstu: nie „rozumie” jak człowiek; przewiduje tokeny według rozkładu prawdopodobieństwa, dlatego brief + kontrola to mus.
  • Brief/Prompt jako mini-program: piszesz „kod” zdaniami — logika i precyzja robią różnicę.
  • Pytania kontrolne: realny „game changer” — model prosi o dane, których nie podałeś, więc później nie strzela.
  • Diagnostyka: nie wierz ślepo; stawiaj kryteria oceny (trafność, kompletność, wierność źródłom, brak halucynacji).
  • Testy A/B: konkurencyjne prompty, ocena trzecim LLM według Twoich kryteriów.
  • Długość: dopasuj objętość do złożoności; strategia ≠ jedno zdanie.
  • Źródła własne: PDF-y, filmiki, książki — zamykanie kontekstu na Twoich materiałach eliminuje „zmyślone” bibliografie.
  • Powtarzalność: komendy sterujące (RESET, DALEJ) + etapowy przepływ pracy.
  • Automatyzacja vs asystenci: buduj 10 małych asystentów zamiast jednego nieprzewidywalnego „agenta”.
  • Praktyka social: separuj konteksty, bo LLM miesza styl i fakty między branżami.

Dodaj komentarz