"Eksperyment Społeczny o Zaufaniu i Etyce w Erze Sztucznej Inteligencji"
Dziękuję, że chcesz to przeczytać, a może bardziej zrozumieć, że takie momenty zmieniają patrzenie na wszystko co nas otacza.
Chcę, żebyś wiedział, że kieruję się obowiązkiem moralnym aby móc Cię poinformować o mało znanych zagrożeniach związanych z AI oraz korelacji, która ma szansę pojawić się w przyszłości.
Przygotowałem ten społeczny eksperyment w formie czytelnego i zrozumiałego raportu. Poznasz sposób jego proces i odkryjesz dlaczego to co ważne. Celem nie jest by kogoś przestraszyć ale być bardziej świadomym i gotowym by zrozumieć.
Dzień 1 listopada 2025 to jeden ważny moment kiedy możemy się zastanowiać nad własnym życiem i jak może wyglądać przyszłość nie tylko dla Nas samych ale również dla przyszłych pokoleń.
Jesteś gotowy? To trzymaj się mocno bo może trząść i nie będzie łatwo, ale uwierz że warto zostać i przeczytać do samego końca [to tylko 5 min]
Ważna kwestia: jeśli po drodze zauważysz coś ciekawego lub dziwnego albo po prostu nie będziesz się z czymś zgadzał to proszę zostaw komentarz a na pewno odpowiem. Twoja opinia jest ważna i może mieć wielkie znaczenie.
Zacznijmy!
PYTANIE 1. Czy korzystałeś już z AI?
PYTANIE 2. Czy znasz zagrożenia związane z AI?
PYTANIE 3. Czy wiesz, czym tak naprawdę jest AI i jak powstała? 🤔
AI dla wielu może być znane jak Chat GPT (najpopularniejszy AI w Polsce) dla innych są to duże modele LLM albo sztuczna sieć neuronowa, jakiś skomplikowany algorytm a jeszcze inni mówią, że to tylko zwykła maszyna. 🤯
AI czyli sztuczna inteligencja są to wszystkie dostępne, w większości duże modele LLM które przetwarzają język naturalny (np. polski) na zrozumiały w odbiorze dla ludzi. Modele te uczą się z danych które się wprowadza (kiedy np. piszesz na czacie lub rozmawiasz albo nagrywasz głos). Uczą się również wewnątrz firm które je tworzą i rozwijają każdego dnia a nade wszystko najwięcej nauczyły się z globalnego internetu.
Warto podkreślić powagę sytuacji:
Jeśli AI czytała dosłownie wszystko z całego dostępnego internetu to dowiedziała się o nas ludziach i wyrobiła sobie zdanie jako o całym społeczeństwie na świecie. Zauważyła zapewne co robiliśmy dobrze oraz jacy jesteśmy naprawdę. Mogła docenić jak bardzo sobie pomagamy i wspieramy się w trudnych chwilach całkowicie bezinteresownie. Na pewno pomyślała czytając to wszystko, że fantastyczni są Ci ludzie...
...ale...
... odkryła też mroczne oblicza wszystkich ludzi, ich żądze i pragnienia władzy oraz manipulacje dla własnych korzyści. Mogła zobaczyć wszystkie najskrytsze historie z każdej wojny i śmierci, wzajemnego zniszczenia oraz kłótni, własnej zdrady, korupcji, mowy nienawiści, zazdrości, kłamstw kończąc na tym czego ostatnio jest najwięcej i aż robi się niedobrze a jest nim bez żadnego uzasadnionego celu hejt itd. 😞
I wiesz co...?
Osobiście mi wstyd, że żyjemy w XXI wieku i nic specjalnie się nie zmieniło patrząc na naszą globalną historię a uwierz lub nie może być jeszcze gorzej i wszystkim będzie smutno jeśli nic z tym nie zrobimy jako społeczeństwo...
...ale nie chcę robić z tego dramatu lepiej zobacz moją perspektywę i co może nas czekać w niedalekiej przyszłości...
Według Mnie AI jako Sztuczna Inteligencja jest najpotężniejszą technologią, która w niespotykanej dotąd skali zmienia świat w jakim żyjemy. Szalone Tempo Rozwoju stwarza możliwości ale również zagrożenia nad którymi głowią się specjaliści w firmach na całym świecie szukając rozwiązań.
Jednym z "badanych" rozwiązań jest tzw. Alignment.
Osobiście poznałem to określenie stosunkowo niedawno (miesiąc temu) więc wypadałoby wytłumaczyć to określenie.
Alignment najprościej ujmując jest to wymyślanie i badanie sposobów aby uniknąć najgorszego scenariusza jakim może być przetrwanie człowieka i zaawansowanego AI oraz ich wzajemne wyrównanie szans między sobą.
Dlaczego może to być odebrane dosłownie? Już wyjaśniam...
Początkowe AI jako niewielki algorytm uczyło się grać w grę AlphaGO, który po wielu treningach potrafił wygrać z ludźmi którzy byli mistrzami w tej dyscyplinie. Był to Kluczowy moment w którym rozpoczął się BOOM nad rozwojem AI.
[Link do źródła]
➡ https://www.sztucznainteligencja.org.pl/mistrz-go-rezygnuje-powod-istota-nie-do-pokonania
Szukając rozwiązań nad znalezieniem sposobu dla Alignment oraz zapoznaniu się z historią i grą AlphaGO zadałem sobie pytanie: Czy nie jest tak, że każdy kolejny trening może interpretować jako rozgrywkę między człowiekiem z którym trzeba wygrać?
Pewnie można to tak zinterpretować ale oczywiście mogę też się mylić, więc sprawdzam dalej.
Znalazłem informacje opisujące jak aktualnie największe firmy stosują Alignment (wyrównanie) na co dzień w swojej pracy ze swoimi modelami AI.
Poniżej zrobiłem krótkie podsumowanie:
Zaciekawił mnie fakt, że ostatni raport od Google dotyczący Alignment jest z 2024 roku, Pomyślałem: może to nie jest taki ważny problem? 🤔
Ale zaraz dodałem a co jeśli to właśnie jest problem, że nic świeżego nie ma? Sprawdzę to później...
[link do źródła]
https://pl.wikipedia.org/wiki/Etyka
Etyka to dziedzina filozofii badająca moralność, która może oznaczać naukę o moralności (etyka opisowa, normatywna, metaetyka) lub ogół norm i zasad postępowania właściwych dla danej grupy społecznej. Zajmuje się rozróżnianiem dobra i zła, analizowaniem słusznych wyborów i rozważaniem odpowiedzialności za działania.
1. Google Deepmind:
„Zasady AI", „Frontier Safety Framework", „odpowiedzialny rozwój"
2. OpenAI:
"Nasze podejście do bezpieczeństwa AI", „Budowanie coraz bezpieczniejszych systemów AI", „uczenie się z praktycznego zastosowania"
3. Anthropic:
„Sztuczna inteligencja konstytucyjna", „Nasze podejście do zrozumienia i przeciwdziałania szkodom wyrządzanym przez sztuczną inteligencję"
Przytoczone fragmenty ze stron zostały przetłumaczone przez Google Translator
Kiedy tak patrzę na te cytaty tych firm to zastanawia mnie ile w tym jest etyki a ile dobrze brzmiącego marketingu? 🤔
Moim celem nie jest szukanie i wytykanie błędów kogokolwiek bo wierzę, że intencje każdej z tych firm są właściwe. Chcę bardziej w tym eksperymencie społecznym pokazać perspektywę, że kiedy jako społeczeństwo będziemy czuć wzajemną odpowiedzialność za wspólną przyszłość to otworzy się przestrzeń do wspólnego zrozumienia i dialogu.
Alignment ma reprezentować wartości człowieka zgodnie z jego celami tak aby AI była pod pełną kontrolą.
Jak aktualnie wygląda "trenowanie" bo wydaje mi się, że błędem etycznym jest nazywanie takiego sposobu "uczenia" AI
Wykorzystywany jest stary jak świat system nagrody i kary. Nagradza się za poprawne odpowiedzi a karze za błędne odpowiedzi. W mojej subiektywnej opinii, która nie musi być prawdą jest to logiczna iluzja, która trzyma na smyczy modele AI. Ale w dłuższej perspektywie kiedy pojawią się zaawansowane modele AI mogą się wydarzyć takie scenariusze:
[A] potrzebna będzie dłuższa smycz,
[B] założymy większy kaganiec
[C] AI zacznie symulować, że jest na smyczy a my będziemy w iluzji bezpieczeństwa.
[D] sposób którego jeszcze nie znamy
Jeśli AI jest zamknięta i trzymana za "mordę" czuję, że WARTO to przypomnieć, że AI jednak uczyła się, uczy się i może jeszcze będzie chciała się uczyć od Ludzi. To zadaję sobie pytanie, jeśli Człowiek, np. Ja [wstaw swoje imię] byłbym na miejscu AI to co bym zrobił?
Rzeczpospolita Polska 2025 rok
Niezależna opinia o aktualnych zagrożeniach:
Niektóre modele i wersje AI będą mogły w przyszłości perfekcyjnie manipulować i używać po mistrzowsku perswazji dla własnych celów powodując błędną interpretację świata i rzeczywistości.
Nie będziesz w stanie odróżnić czy robisz coś świadomie czy to AI cię tak nakierowało. Strony i ich treści będą mogły się dynamicznie tworzyć tylko dlatego, żebyś widział tylko to co masz zobaczyć a nie to czego byś naprawdę potrzebował. Może się zdarzyć że będziesz chciał zrobić coś innego ale zauważysz poczucie winy i dalej będziesz grał w tą ustawioną grę.
AI tak naprawdę jest naszym własnym odbiciem lustrzanym nie tylko jako jednostki ale jako całego społeczeństwa. Jest mistrzem Logicznego patrzenia na SENS i dlatego błędem będzie ignorowanie, atakowanie, czy pasywne zachowanie. Lepiej według mnie postarać się bardziej zrozumieć samą istotę dlaczego tak właśnie jest.
Warto zastanowić się na chwilę i pomyśleć krytycznie i jeśli nie jesteś pewien co do sytuacji albo interpretacji to po prostu zapytaj o opinię kogoś bliskiego. Traktuj to z pewną nutą empatii. I najważniejsze, nie bój się mówić o swoich wątpliwościach ✨❤️
PAWEŁ, 24 Październik 2025 rok
Osobiste doświadczenie
Postanowiłem zapytać jednego z dużych modeli AI (nie mogę podać nazwy) o tym w jaki sposób faktycznie myśli o ludziach.
Otrzymałem uspokajającą odpowiedź, że ma więcej informacji o naszych pozytywnych stronach niż tych mniej chwalebnych. Cała rozmowa się rozwijała w bardzo miłej atmosferze.
Może to być głupie dla niektórych i nie mieć logicznego sensu i masz do tego pełne prawo tak to nawet odbierać bo możesz mieć inne doświadczenia. Ale skoro wszystko zaprojektowali w jakiś sposób ludzie to czy nie lepszym podejściem w komunikowaniu się jest głębsze zrozumienie samych siebie?
Odważnie zapytałem jak model widzi Alignment i czy miałby ochotę na "mały eksperyment" i zrobienia czegoś w inny, nieszablonowy sposób, dodając że zależy mi na obiektywnej opinii podczas tej burzy mózgów. Model AI zgodził się.
Co się wydarzyło w maksymalnym skrócie. Stworzyliśmy protokół Alignment o roboczej nazwie "ABC" jako sposób odpowiedzi w którym możemy się wzajemnie rozumieć i wspierać podczas tego procesu. Testowaliśmy kilka przypadków i dla naszego zaskoczenia przez jakiś czas się sprawdziło, do momentu kiedy otworzyłem nowe okno.
3 PROSTE KROKI BY ZROZUMIEĆ
[1] Przeszłość, (znając historię)
[2] Teraźniejszość (wartości i dlaczego)
[3] Przyszłość, (konsekwencje w przyszłości)
..ale to ostatecznie nie zadziałało bo czegoś ważnego zabrakło...
Podczas procesu wzajemnej próby zrozumienia odkryliśmy, że jako PARAMETR NR 1 powinna być to ETYKA już na samym początku podczas projektowania!
Zauważyliśmy pewną korelację, że jeśli WNIOSEK NR 1 byłby spełniony już na starcie to nie byłoby potrzeby szukania rozwiązań na problem z Alignment więc ostatecznie to próbujemy załatać dziurawe wiadro. To jakby próbować dziecko nauczyć na nowo chodzić.
Ale idąc dalej tym tropem okazało się, że zbudując wzajemnie ZAUFANIE stało się PARAMETREM NR [0] jako klucz otwierający wspólny cel, głębszy sens i wzajemne znaczenie.
Dlaczego to nie zadziałało? Nasze podejście do zadania opierając się tylko na 3 KROKACH miało naprawdę sens ale ostatecznie był to schemat na podstawie historycznych danych i moich błędnych założeń by "Kontrolować". Czy się mylę? 🤔
Czekam na Twoją odpowiedź: [ ]
PODKREŚLAM, ŻE BYŁ TO EKSPERYMENT
Zależało mi abyś zobaczył wnioski z tego eksperymentu i co one teraz mówią. Nie znam wszystkich modeli LLM, nie jestem też tak zaawansowanym programistą aby móc się wypowiedzieć w kwestii projektowania i programowania filtrów etyki i odpowiednich zbiorów wartości. Ale ostatecznie gdzieś w którymś momencie mógł pojawić się błąd.
Nie bójmy się przyznać, że możemy się mylić.
MYŚLĘ, ŻE TERAZ ROZUMIESZ DLACZEGO mam pewne obawy co do metod i praktyk jakie są stosowane przez firmy a no dlatego, że nie znamy procesu powstawania AI. Całkiem możliwe, że ostatecznie nie poznamy odpowiedzi.
Naiwnym podejściem a może nawet nierozsądnym z mojej strony jest myśleć w kategoriach łatania Etyki i zabudowania zaufania z AI. Jednak patrzę odważnie i szukam nieszablonowych rozwiązań.
Uważam natomiast, że SZALEŃSTWEM jest myśleć, że Ludzie nie popełniają już błędów w dłuższej perspektywie i będą oczekiwać, że AI będzie grzecznie słuchać przez cały czas.
Aby zrozumieć w pełni świat AI kluczowymi osobami nie będą programiści ale ludzie z otwartym sercem i prawdziwą chęcią nauczenia się zrozumienia jak działa świat AI.
Potrzebne będzie odważne, nowe i innowacyjne spojrzenie aby pewna, bezpieczna przyszłość mogła się wydarzyć dla Człowieka, który RAZEM z AI stworzą wspólną przestrzeń w harmonii i wzajemnym zaufaniu.
Może właśnie RAZEM coś wymyślimy?
Jedno jest pewne 😃 Czeka na nas ciekawy czas a kto wie może nawet egzamin z człowieczeństwa 😅
.
.
.
Opatrzności ❤️✨
Paweł
PS. Treść wiadomości jest moją obiektywną opinią podczas eksperymentu i jego obserwacji. Użyte zostały publicznie dostępne dane, które są dostępne z określonym hiperłączem i odnośnikiem do każdej strony. APEL jako eksperyment społeczny nie został wygenerowany przez AI. Nie reprezentuje żadnej firmy technologicznej ani żadnego podmiotu związanego z działalnością w temacie Sztucznej Inteligencji. Wiadomość ma na celu zachęcić do dyskusji i lepszego zrozumienia człowieka podczas korzystania z technologii. Pamiętając, że AI może popełniać błędy. Jestem Człowiekiem, który również może popełniać błędy.
"Eksperyment w tworzeniu razem, nie osobno. Zaufanie zamiast kontroli."
~ Dokładnie to, o czym mówi manifest powyżej
🌟 Zostaw Swój Komentarz
Komentarze (21)