Czym dla mnie jest prompt engineering w zarządzaniu

Kiedy wchodzę do sali zarządu i widzę prezentację „AI w naszej firmie”, prawie zawsze pada to samo zdanie: „Mamy ChatGPT, ale nie umiemy z niego wycisnąć konkretu”. I tu właśnie zaczyna się rola prompt engineeringu.

Dla mnie prompt engineering to nie sztuczka techniczna, tylko nowy Excel dla liderów – kompetencja organizacyjna, bez której trudno będzie utrzymać przewagę konkurencyjną. Tak jak kiedyś menedżer, który „nie ogarniał Excela”, był skazany na pracę innych, tak dziś lider bez podstaw promptowania będzie uzależniony od osób, które potrafią rozmawiać z AI w sposób precyzyjny i powtarzalny.

W praktyce prompt engineering to projektowanie, testowanie i optymalizacja zapytań do modeli AI (jak ChatGPT), tak aby odpowiedzi były nie tylko poprawne językowo, ale przede wszystkim użyteczne biznesowo. Innymi słowy: chodzi o to, byś umiał_ła delegować zadania do AI tak, jak delegujesz je do członka zespołu – z jasnym kontekstem, oczekiwaniami i ograniczeniami.

Jednocześnie trzeba sobie powiedzieć wprost: modele AI są niedeterministyczne. Ten sam prompt może dać różne odpowiedzi. Dla innowacji to świetna wiadomość, ale dla procesów, które mają być powtarzalne i standaryzowane – już niekoniecznie. Dlatego tak mocno naciskam na struktury, standardy i centralne repozytoria promptów, a nie „luźne klikanie w okienko czatu”.

Im szybciej spojrzysz na prompt engineering jak na kompetencję zarządczą, a nie „gadżet AI”, tym szybciej AI zacznie realnie pracować na Twoje wyniki, a nie tylko robić wrażenie na prezentacjach.

Delegowanie zadań do AI: z narzędzia w partnera

Pamiętam jednego dyrektora sprzedaży, który z dumą powiedział mi: „Korzystam z AI codziennie – wpisuję pytanie jak w Google i biorę pierwszą odpowiedź”. Po pięciu minutach analizy jego wyników było jasne, że cierpi na klasyczny „syndrom Google‑prompting” – traktował AI jak wyszukiwarkę, więc dostawał odpowiedzi na poziomie wyszukiwarki, a nie partnera strategicznego.

Delegowanie zadań do AI nie polega na wpisaniu hasła „napisz raport” czy „zrób analizę”. Kiedy ja deleguję zadanie do modelu, myślę jak menedżer:

  • co jest celem,
  • w jakim kontekście działamy,
  • jakie są ograniczenia,
  • kto jest odbiorcą wyniku.

To właśnie nazywam strukturyzowanym promptowaniem. W jednym poleceniu mieszczę nie tylko „co ma być zrobione”, ale też dlaczego, dla kogo i w jakiej formie. Model przestaje wtedy zgadywać i zaczyna pracować.

Zauważyłam też, że wielu liderów oczekuje od AI gotowej odpowiedzi „za jednym strzałem”. Ja robię inaczej. Zanim wyślę prompt, przechodzę w głowie przez sześć podstawowych pytań (kto, co, po co, w jakim kontekście, w jakim formacie, z jakimi ograniczeniami). Ta metoda w wersji pełnej krąży raczej w zamkniętych szkoleniach niż w otwartych materiałach, ale już sama dyscyplina zadawania sobie tych sześciu pytań dramatycznie podnosi jakość odpowiedzi.

PRO TIP: Jeśli Twoje prompty brzmią jak szybkie wyszukiwanie w Google, AI będzie odpowiadało jak lepsza wyszukiwarka. Jeśli brzmią jak dobrze przemyślane zlecenie dla senior specjalisty – zaczniesz dostawać odpowiedzi na poziomie seniora.

Na koniec ważna rzecz: problem framing, czyli umiejętność sformułowania problemu, jest często ważniejsza niż sama technika promptowania. Jeśli źle nazwiesz problem, nawet perfekcyjny prompt da Ci świetnie ustrukturyzowaną odpowiedź… na niewłaściwe pytanie.

Moja struktura K–Z–K–T–F i dlaczego działa

Pewnego razu pracowałam z zespołem, który „tonął” w różnych wersjach promptów w Notion, Slacku, mailach. Każdy robił to po swojemu, efekty były losowe, a poczucie chaosu rosło. Zaczęłyśmy od jednej prostej rzeczy: wspólnej struktury promptu.

Najczęściej korzystam ze schematu K–Z–K–T–F:

  • Kontekst
  • Zadanie
  • Kroki
  • Ton
  • Format

Najpierw daję kontekst: opisuję firmę, sytuację, ograniczenia, to, co już wiemy i czego nie wiemy. Bez tego model będzie bazował na ogólnikach i „halucynacjach”.

Potem definiuję zadanie – jedno, konkretne. Zamiast „pomóż mi zreorganizować marketing”, proszę o „zaproponowanie struktury kampanii dla konkretnego produktu, na konkretny rynek, z konkretnym budżetem”.

Kolejny element to kroki. Proszenie AI o „odpowiedź krok po kroku” nie jest tylko kosmetyką. Kiedy opisuję, że najpierw ma przeanalizować dane, potem zaproponować warianty, a na końcu zbudować plan działania, dostaję wynik, z którym można od razu pracować.

Następnie określam ton – ekspercki, partnerski, inspirujący, bardzo formalny. To szczególnie ważne, gdy wynik ma iść na zewnątrz: do klientów, zarządu, inwestorów.

Na koniec wskazuję format: raport, tabela, lista działań, analiza SWOT, A3, podsumowanie dla zarządu w 5 punktach. Kiedy łączę strukturę K–Z–K–T–F z formami znanymi z zarządzania, jak 5W1H, A3 Problem Solving czy PDCA, prompty stają się spójnym elementem systemu zarządzania, a nie „magicznych zaklęć” do AI.

PRO TIP: Jeśli w firmie stosujesz już 5W1H, A3 czy PDCA, użyj ich wprost w promptach. Zamiast „przygotuj analizę problemu”, poproś: „opracuj analizę w formacie A3 z sekcjami: tło, problem, analiza przyczyn, plan działań, wskaźniki”.

Jak zacząć jako menedżer – ścieżka krok po kroku

Na jednym z warsztatów usłyszałam: „Marta, ja nawet nie umiem napisać dobrego maila do CFO, a Ty mówisz, żebym projektowała prompty do AI”. To bardzo częsta obawa – i zupełnie niepotrzebna. Nie musisz znać programowania. Potrzebujesz za to odrobiny dyscypliny i ciekawości.

Zaczynam zwykle od jednego prostego nawyku: traktuj każdy prompt jak mały eksperyment, a nie jak egzamin. Pierwsza wersja rzadko jest idealna. Ja zawsze zakładam kilka iteracji – doprecyzowania, zawężenia, zmiany perspektywy.

Równolegle buduj w sobie postawę AI‑ready. To oznacza, że rozumiesz, co AI umie, czego nie umie, gdzie jest przydatne, a gdzie lepiej, żeby decyzję podjął człowiek. To nie jest wiedza „na pamięć”, raczej zestaw zdrowych nawyków:

  • Wyznaczaj jasny cel dla każdego promptu.
    Nie pytaj „jak poprawić sprzedaż”, tylko „jak zwiększyć retencję klientów segmentu X o 10% w ciągu 6 miesięcy, mając takie a takie ograniczenia”.

  • Analizuj wyniki i iteruj.
    AI nie jest wyrocznią. Podchodzę do każdej odpowiedzi jak do wersji roboczej, którą można poprawić. Jeśli wynik jest zbyt ogólny – zawężam. Jeśli zbyt skomplikowany – proszę o uproszczenie.

  • Standaryzuj to, co działa.
    Gdy jakiś prompt dobrze się sprawdzi, zapisuję go w centralnym repozytorium: Notion, Confluence, systemie wiedzy. Chaos zaczyna się wtedy, gdy każdy w zespole „wynajduje koło na nowo”, a dobre prompty giną w prywatnych notatkach.

  • Buduj predefiniowane role AI.
    Tworzę gotowe „persony” dla AI: „ekspert HR w firmie produkcyjnej 500+ osób”, „strateg B2B SaaS”, „analityk finansowy CFO‑level”. Zapisuję je w repozytorium, dzięki czemu cały zespół może korzystać z tych samych, sprawdzonych ról bez ciągłego powtarzania kontekstu.

  • Śledź zmiany w narzędziach, ale nie daj się im przytłoczyć.
    Nie chodzi o to, by znać każde nowe narzędzie, tylko rozumieć, jak zmieniają się możliwości modeli i jak przekłada się to na Twoje procesy.

Tu pojawia się jeszcze jedna pułapka: niedeterministyczność modeli. Nawet przy tym samym promptcie wynik może się różnić, co utrudnia standaryzację. Dlatego oprócz dobrych promptów potrzebujesz procedur: jak zapisujemy wersje, które działały, jak opisujemy kontekst, jak testujemy zmiany.

UWAGA: Im intensywniej korzystasz z AI, tym łatwiej wpaść w sidła nadmiernego zaufania. Widziałam organizacje, w których liderzy podejmowali decyzje prawie wyłącznie na podstawie odpowiedzi AI. Efekt? Halucynacje modelu przekładały się na bardzo realne błędy biznesowe. Krytyczna weryfikacja to nie deficyt zaufania, tylko zdrowa higiena pracy.

Kluczowe techniki prompt engineeringu dla liderów

Jedną z pierwszych rzeczy, których uczę menedżerów, jest dekompozycja problemu. Zamiast wrzucać do AI wszystko naraz – „przeanalizuj strategię firmy na 40 slajdach i powiedz, co jest nie tak” – rozbijam temat na mniejsze kawałki: analiza sytuacji, analiza klientów, analiza oferty, analiza procesów. Model dostaje mniejsze porcje, więc odpowiedzi są bardziej precyzyjne.

Często proszę AI o odpowiedź w kilku rundach: najpierw diagnoza, potem propozycje działań, później plan wdrożenia. To od razu porządkuje myślenie.

Druga bardzo mocna technika to zmiana perspektywy. Ten sam problem można zobaczyć oczami:

  • klienta,
  • zespołu operacyjnego,
  • zarządu,
  • działu finansowego.

Kiedy proszę AI, aby „przyjęło rolę” konkretnego interesariusza, zaczynam widzieć rzeczy, które wcześniej mi umykały. To szczególnie przydatne w sporach między działami – AI, dobrze poinstruowana, jest w stanie pokazać rozbieżności w oczekiwaniach i priorytetach.

Trzeci element to definiowanie ograniczeń: budżetu, czasu, dostępnych zasobów, ryzyk, rynków. Im bardziej precyzyjnie je opiszesz, tym mniejsze ryzyko, że model wygeneruje piękną, ale całkowicie nierealną wizję.

Na koniec dochodzimy do zaawansowanych instrukcji, czyli tego, co wiele osób nazywa „prompt injection” w pozytywnym, wewnętrznym znaczeniu: bardzo szczegółowe zestawy reguł, które wpływają na to, jak AI myśli w ramach jednej rozmowy. Używam tego np. do budowania „wewnętrznych konsultantów” – AI, które zawsze najpierw zada dodatkowe pytania, zanim odpowie.

I znowu – to wszystko będzie mało warte, jeśli nie zaczniemy od dobrego sformułowania problemu. Problem framing jest bardziej uniwersalną kompetencją niż sam prompt engineering. Jeśli Twoi liderzy potrafią klarownie nazwać, na czym polega problem, AI staje się potężnym wsparciem. Jeśli nie – wzmocnią tylko istniejący chaos.

Gdzie AI naprawdę pomaga menedżerowi

Jedna z moich ulubionych scenek z projektu: dyrektorka HR patrzy na raport przygotowany przez AI i mówi: „Gdybym miała to zrobić ręcznie, zajęłoby mi to trzy dni. A tak – pół godziny na doprecyzowanie promptów”. To jest dokładnie ten moment, kiedy czuję, że technologia robi swoją robotę.

W praktyce widzę kilka obszarów, gdzie dobrze zaprojektowane prompty robią ogromną różnicę:

Zarządzanie wiedzą.
Firma ma tysiące dokumentów, raportów, procedur. AI może pomóc je klasyfikować, streszczać, wyciągać kluczowe wnioski, tworzyć odpowiedzi na najczęstsze pytania pracowników. Dzięki temu zespół nie traci godzin na „szukanie po folderach”, tylko zadaje sensowne pytania do połączonej bazy wiedzy.

Rozwój produktów.
Kiedy pracuję z zespołami produktowymi, używamy AI do analizy feedbacku klientów, przeglądu trendów, generowania wariantów ofert. To nie zastępuje decyzji product managera, ale pozwala mu przejść od „nie wiem, od czego zacząć” do „mam trzy sensowne scenariusze, które mogę zweryfikować”.

IT i kodowanie.
Zespoły developerskie korzystają z AI jako z „asystenta programisty”: generowanie szkiców kodu, podpowiedzi rozwiązań, wstępne testy, propozycje refaktoryzacji. Przy dobrze ustawionych promptach czas od pomysłu do prototypu potrafi się skrócić o połowę.

HR i cykl życia pracownika.
Od preselekcji CV, przez tworzenie scenariuszy onboardingu, po personalizację ścieżek rozwojowych – AI może przejąć dużą część pracy analitycznej i operacyjnej. Lider HR nie jest wtedy „zakładnikiem Excela”, tylko partnerem zarządu, który przychodzi z konkretnymi wnioskami.

I znowu wracamy do sedna: prompt engineering w pracy menedżera to nie zabawa w generowanie treści. To sposób na to, by szybciej dojść do sensownych opcji decyzyjnych, lepiej wykorzystać zasoby i zbudować system, w którym ludzie robią to, w czym są najlepsi – a resztę przejmują algorytmy.

Ryzyka pracy z AI, o których mało się mówi

W jednym z projektów CFO powiedział mi: „Marta, ja już nie mam siły sprawdzać każdego raportu od AI. To mnie mentalnie wykańcza”. I to jest temat, o którym rzadko mówi się w prezentacjach o „magicznej AI”: koszt weryfikacji.

AI generuje odpowiedzi na masową skalę. Każda z nich może zawierać drobny błąd, nieścisłość, halucynację. Lider, który musi to wszystko weryfikować, po kilku miesiącach po prostu ma dość. Dlatego ryzyko w pracy z AI to nie tylko bezpieczeństwo danych, ale też psychiczny koszt ciągłego sprawdzania.

Dodajmy do tego:

  • Nadmierne zaufanie – „skoro AI tak ładnie to napisało, to pewnie ma rację”. Nie, nie ma. Model językowy nie „wie”, on przewiduje kolejne słowa. Może robić to błędnie, ale bardzo przekonująco.

  • Niedeterministyczność – brak powtarzalności odpowiedzi utrudnia audyt i kontrolę jakości. Dzisiaj dostaniesz świetny wynik, jutro – zupełnie inny, przy tym samym promptcie.

  • Prompt injection w złym znaczeniu – jeśli zostawisz AI podłączone do wewnętrznych danych bez sensownych zabezpieczeń, ktoś może „wstrzyknąć” instrukcje, które wyciągną z modelu informacje, których nie powinien ujawniać, albo wpłyną na sposób, w jaki model odpowiada.

Dlatego traktuję zarządzanie ryzykiem AI jak normalny element systemu zarządzania:

  • definiuję, do jakich decyzji AI nie wolno używać (np. decyzje kadrowe o zwolnieniu pracownika tylko na podstawie analizy AI);
  • wprowadzam zasady weryfikacji (np. które odpowiedzi sprawdzamy w 100%, które próbkowo);
  • buduję centralne repozytorium promptów i ról AI, które zostały przetestowane i zatwierdzone – zamiast dzikiego eksperymentowania na produkcji.

UWAGA: AI nie jest ani „mądre”, ani „głupie”. Jest po prostu statystyczne. Twoim zadaniem jako liderki/lidera jest stworzenie takiego środowiska, w którym jego błędy nie przełożą się automatycznie na błędy biznesowe.

Czy potrzebujesz prompt engineera, czy raczej menedżera AI‑ready?

Na jednej z konferencji podszedł do mnie prezes średniej firmy produkcyjnej i zapytał: „Czy ja muszę teraz zatrudniać jakiegoś prompt engineera, czy wystarczy, że moi ludzie nauczą się lepiej pytać AI?”. Odpowiedź brzmi: „to zależy”, ale nie w sensie wymijającym.

Prompt engineer jest kluczowy tam, gdzie:

  • AI jest zintegrowane głęboko z procesami (np. generowanie kodu, automatyczne decyzje operacyjne),
  • potrzebujesz wysokiej powtarzalności i jakości,
  • budujesz własne rozwiązania oparte o modele językowe.

Taka osoba łączy kompetencje techniczne, analityczne i komunikacyjne. Potrafi wycisnąć z modeli znacznie więcej niż „zwykły użytkownik”.

Jednocześnie uważam, że każdy menedżer powinien stać się AI‑ready. To nie znaczy, że masz znać wszystkie sztuczki promptowe. Masz rozumieć:

  • co AI wnosi do Twojego obszaru,
  • jak mądrze delegować do niej zadania,
  • gdzie postawić granice odpowiedzialności.

Co więcej, najskuteczniejsze organizacje, z którymi pracuję, łączą te dwa światy. Prompt engineer projektuje standardy, struktury, role AI, a menedżerowie uczą się z nich korzystać, rozwijając u siebie problem framing, myślenie analityczne i świadome eksperymentowanie.

Moja praktyczna obserwacja jest taka:
w pierwszej fazie transformacji AI w firmie wystarczy, że zbudujesz zespół menedżerów AI‑ready. Na pewnym poziomie skali i złożoności – prompt engineer staje się naturalnym, bardzo opłacalnym kolejnym krokiem.

Podsumowanie: od pierwszego promptu do dojrzałej organizacji AI

Na koniec zbiorę to, o co najczęściej pytają mnie liderzy.

Czym właściwie jest prompt engineering w praktyce?
To umiejętność takiego projektowania i optymalizowania zapytań do AI, by uzyskać odpowiedzi, które realnie wspierają decyzje biznesowe. Łączy w sobie myślenie analityczne, umiejętność formułowania problemów i świadome zarządzanie kontekstem.

Jak zacząć jako menedżer?
Zacznij od małych eksperymentów. Wybierz jeden proces, w którym dziś tracisz dużo czasu na analizy, raporty czy podsumowania. Zastosuj strukturę K–Z–K–T–F, dołóż do tego ramy 5W1H, A3 lub PDCA, przejdź w głowie przez swoje „sześć pytań przed promptem” i zobacz, co się stanie po kilku iteracjach.

Czy potrzebuję dedykowanego prompt engineera?
Jeśli dopiero zaczynasz, ważniejsze jest zbudowanie zespołu menedżerów AI‑ready – ludzi, którzy rozumieją potencjał i ograniczenia AI oraz potrafią zadawać jej właściwe pytania. Gdy Twoje zastosowania AI staną się krytyczne dla biznesu i zaczniesz natywnie wbudowywać modele w procesy, wtedy inwestycja w prompt engineera staje się naturalnym, strategicznym krokiem.

Od ponad 10 lat pomagam firmom przechodzić z chaosu manualnych zadań do skalowalnych, zautomatyzowanych ekosystemów. Widzę bardzo wyraźnie: przyszłość należy do tych organizacji, które połączą ludzką kreatywność z algorytmiczną precyzją. A pomiędzy nimi stoi jedno, pozornie proste ogniwo – dobrze zadane pytanie do AI.