Nie każda działalność intelektualna prowadzona przez naukowców stanowi teorię naukową. Wiele idei, metafor i szkiców koncepcyjnych pełni ważną rolę heurystyczną, ale niekoniecznie opisuje prawa natury. Nawiązując do tradycji Szkoły Lwowsko-Warszawskiej, teorii modeli Tarskiego oraz późniejszych osiągnięć filozofii nauki, niniejszy artykuł proponuje sposób rozróżnienia między „twórczością naukową” a „teoriami naukowymi”. Sformułowano zestaw formalnych kryteriów i połączono je w algorytm, który przy użyciu dużych modeli językowych (LLM) mógłby służyć do wstępnej oceny tekstów naukowych.
Słowa kluczowe: teoria naukowa; teoria modeli; Szkoła Lwowsko-Warszawska; algorytm; LLM
Wprowadzenie
Teoria naukowa powinna poszerzać nasze rozumienie świata, wyjaśniać wcześniej niezrozumiałe zjawiska lub oferować nowy, potencjalnie prostszy opis rzeczywistości.
Dla przykładu istnieje fundamentalna różnica między Światem Dysku Terry’ego Pratchetta a teorią strun [1]. Aby odróżnić teorię naukową od fantastyki naukowej, można zaproponować następującą klasyfikację: nauka dotyczy rzeczywistości, natomiast fikcja nie musi się ograniczać do tego co istnieje.
Jednak istnienie takich bytów jak struny pozostaje niepewne. Bardziej elastyczne kryterium rozróżnienia zakłada, że teorie lub hipotezy naukowe są tworzone w celu dostarczenia prawdziwego opisu rzeczywistości. Ich celem nie jest rozrywka, lecz weryfikacja eksperymentalna, mająca ustalić trafność proponowanego opisu.
Pojawia się jednak problem: czy całkowicie abstrakcyjne teorie są pozbawione wartości naukowej? Abstrakcyjne opisy oderwane od rzeczywistości są powszechne w praktyce naukowej. Przykładowo, koncepcja „płaszczaków” pomaga zrozumieć ideę przestrzeni czterowymiarowej. Opisy takie są wartościowe ze względu na swoją użyteczność. Kryterium użyteczności jest jednak problematyczne, ponieważ rodzi pytania związane z celowością. Także pytania natury etycznej.
Jest to szczególnie ważne obecnie, gdy pojęcie „naukowego obrazu świata” niesie ze sobą autorytet i wiarygodność, czasami nadając nauce status porównywalny z religią. Kiedyś mitologie religijne obiecywały odpowiedzi na każde pytanie. Obecnie tak traktowana bywa nauka.
Teorie naukowe wpływają na ludzkie zachowanie; na przykład wyjaśniają siły działające na człowieka spadającego z wysokości, a ich wartość jest powszechnie uznawana. Nie każdy jednak argument przedstawiany przez naukowców stanowi teorię naukową. Dlatego ustanowienie jasnych kryteriów odróżniających twórczość naukową od teorii naukowych jest niezbędne.
Twórczość naukowa, podobnie jak inne formy twórczości, jest zjawiskiem kulturowym, które – praktykowane swobodnie – przyczynia się do rozwoju cywilizacji. Gdy jednak ta twórczość zmierza do prezentacji bezwzględnie obowiązujących reguł – mamy prawo poddać ją dogłębnej krytyce, by ocenić, czy prezentuje naukową teorię.
W niniejszym artykule przedstawiono metodę rozróżniania twórczości naukowej od teorii naukowych. Rozwój systemów opartych na dużych modelach językowych (LLM) umożliwia półautomatyczną ocenę tekstów naukowych. Jasny i obiektywny algorytm można skonstruować, czerpiąc z filozofii nauki oraz dorobku Szkoły Lwowsko-Warszawskiej.
Dziedzictwo Szkoły Lwowsko-Warszawskiej: formalizacja teorii
Aby wskazać kryterium demarkacyjne (między swobodną narracją na teorią), należy analizować poznanie naukowe za pomocą logiki. Na początku XX wieku głównymi ośrodkami tych badań były Koło Wiedeńskie (KW) oraz polska Szkoła Lwowsko-Warszawska (SLW).
Z perspektywy czasu cele Koła Wiedeńskiego okazały się zbyt radykalne i ideologicznie nacechowane. Jego przedstawiciele dążyli nie tylko do ukazania nauki jako drogi do prawdy, lecz także do skonstruowania jedynego poprawnego języka jej opisu. Choć projekt ten zakończył się niepowodzeniem, ich wysiłki nie były daremne – przyczyniły się do zwiększenia precyzji teorii poprzez formalizację i jasne reguły weryfikacji twierdzeń.
Szkoła Lwowsko-Warszawska przyjęła podejście mniej radykalne, a jej osiągnięcia okazały się trwałe, choć być może niedoceniane. Poniższe zestawienie pokazuje różnice filozoficzne między tymi dwoma ośrodkami (KW / SLW):
-
Metafizyka:
-
SLW: Dopuszczalna, jeśli racjonalna i analityczna
-
KW: Odrzucana jako pozbawiona sensu
-
-
Epistemologia
-
SLW: Umiarkowany realizm, obiektywizm
-
KW: Empiryzm oraz fenomenalizm/fizykalizm
-
-
Teoria prawdy
-
SLW: Kluczowa – zwłaszcza w ujęciu Tarskiego
-
KW: Prawda jako weryfikowalność
-
-
Język
-
SLW: Podejście semantyczno-analityczne
-
KW: Podejście syntaktyczne (wczesny Carnap), później semantyczne
-
Alfred Tarski sformułował ścisłe reguły pozwalające na odróżnienie teorii naukowych od innych form twórczości naukowej – choć nie to było jego celem. Skupił się on na analizie teorii dedukcyjnych, traktując twórczość naukową jako element procesu tworzenia teorii. Zapoczątkowana przez Tarskiego teoria modeli bada relacje między językami formalnymi, teoriami oraz ich modelami – strukturami matematycznymi, w których teorie są interpretowane. W mechanice klasycznej modelem może być na przykład równia pochyła z klockiem zsuwającym się pod wpływem grawitacji.
Teoria modeli pozwoliła Tarskiemu doprecyzować pojęcie prawdy. Prawda nie jest własnością zdania samego w sobie, lecz relacją między zdaniem, językiem i modelem. Mówimy o prawdzie w modelu, co dotyczy również aksjomatów i twierdzeń. Rozwiązanie Tarskiego jest genialne w swej prostocie: nie tylko pozwala uniknąć antynomii, ale rozwiązuje wiele problemów oraz jałowych sporów poprzez:
-
traktowanie logiki jako systemu abstrakcyjnego, co pozwala uniknąć uwikłania jej w spory o to co realnie istnieje,
-
odrzucenie koncepcji „zdań bezsensownych” w teoriach logicznych – w teorii modeli wszystkie zdania są albo prawdziwe, albo fałszywe,
-
unieważnienie podziału na prawdy syntetyczne i analityczne.
Teoria modeli dobrze współgra ze współczesnym rozumieniem realizmu naukowego. Działalność naukową można ująć w następującym schemacie:
-
Sformułowanie teorii matematycznej jako abstrakcyjnego formalizmu.
-
Przygotowanie eksperymentu poprzez sformułowanie przewidywań obserwacyjnych.
-
Weryfikacja: potwierdzenie zjawiska w środowisku fizycznym.
-
Interpretacja realistyczna: jeśli eksperymenty potwierdzają teorię, jej struktury matematyczne uznaje się za odpowiadające rzeczywistym zjawiskom przyrody.
Nie cała praktyka naukowa podąża tą drogą; wielu naukowców stosuje realistyczną metodologię „jak gdyby”. Przykładowo, badacze teorii strun zakładają istnienie strun. Niemniej jednak dążenie do zgodności z powyższym schematem powinno być celem rozwoju teorii. Tylko teorie posiadające co najmniej jeden model można uznać istotne z punktu widzenia nauk empirycznych.
Różnorodność twórczości naukowej
W niektórych dyscyplinach naukowych wprowadzenie formalizmu abstrakcyjnego może być trudne lub wręcz niepożądane, ponieważ ich głównym celem nie jest odkrywanie praw przyrody, lecz gromadzenie, weryfikowanie i przekazywanie wiedzy. Przykładowo historycy dostarczają informacji o poglądach Napoleona na Polskę, lecz nie stanowi to elementu teorii naukowej.
Aby objąć całe spektrum twórczości naukowej, można posłużyć się kryteriami zaproponowanymi przez Kazimierza Ajdukiewicza w artykule Metodologiczne typy nauk. Zadaje on pytanie: jakie twierdzenia mogą zostać przyjęte w nauce bez dalszego dowodu, jako przesłanki ostateczne?
Ajdukiewicz wyróżnił trzy typy twierdzeń naukowych:
-
Twierdzenia bezpośrednio aprioryczne:
-
Aksjomaty – twierdzenia, którym nie można sensownie zaprzeczyć przy zwykłym znaczeniu słów (np. „każdy kwadrat ma cztery boki”).
-
Postulaty – twierdzenia konstytuujące znaczenie terminów (postulaty znaczeniowe lub quasi-definicje), prawdziwe „z definicji” w ramach danej teorii.
-
-
Twierdzenia oparte bezpośrednio na doświadczeniu:
-
Doświadczenie wewnętrzne (introspekcja) – uznawane za pewne, lecz odnoszące się wyłącznie do własnych przeżyć (np. „widzę teraz coś białego”).
-
Doświadczenie zewnętrzne (ekstraspekcja) – dotyczące świata zewnętrznego i zawsze podlegające korekcie.
-
-
Twierdzenia oparte bezpośrednio na rozumieniu tego, co się słyszy lub czyta:
-
Na przykład w zdaniu „Wiersz Smutno mi, Boże ma charakter liryczny” autor zakłada, że twierdzenie to opiera się nie tylko na percepcji tekstu, lecz także na jego interpretacji.
-
Na tej podstawie Ajdukiewicz wyróżnił trzy główne klasy nauk:
-
Nauki aprioryczne, przyjmujące wyłącznie twierdzenia aprioryczne jako przesłanki ostateczne.
-
Nauki empiryczne (przyrodnicze), przyjmujące twierdzenia aprioryczne oraz twierdzenia oparte na doświadczeniu.
-
Nauki humanistyczne, przyjmujące twierdzenia aprioryczne, oparte na doświadczeniu oraz interpretacyjne.
Dwa wymiary racjonalności: konsensus naukowy i ugruntowanie formalne
Powyższe rozważania prowadzą do wniosku, że teksty naukowe powinny być najpierw klasyfikowane, a następnie można oceniać dojrzałość zawartych. Ważne są przy tym nie tylko bieżące osiągnięcia, ale też cel i strategia rozwoju.
W ciągu ostatniego stulecia narracje naukowe rozwijały się w dwóch wymiarach:
-
Konsensus naukowy – powszechna akceptacja ekspertów.
-
Ugruntowanie formalne – formalizacja, która precyzuje znaczenie teorii i łączy ją z szerszą siecią teorii naukowych.
Narracje naukowe dążą do trwałego miejsca w nauce poprzez rozwój w obu tych wymiarach.
W ostatnich latach konsensus naukowy stał się kryterium dominującym, prawdopodobnie w związku z rozwojem nauk społecznych. Zjawisko to wystawiło naukę na wpływy polityczne i biznesowe, potencjalnie osłabiając autorytet naukowców jako ekspertów.
Akceptacja formalna w ramach istniejącej sieci teorii może stanowić bardziej obiektywne kryterium, choć również nie jest wolna od wad.
Jeśli narracje naukowe rozwijają się w dwóch wymiarach, lecz tylko jeden prowadzi do teorii opisujących prawa przyrody, czy można porzucić kryterium konsensusu naukowego?
Zasadniczo konsensus naukowy również stanowi racjonalną metodę dochodzenia do prawdy. Może on być osiągany poprzez:
-
porozumienie wśród specjalistów (wspólnoty naukowej),
-
wzajemne procedury oceny,
-
zasadę postulowanej replikacji,
-
ocenę skuteczności praktycznej.
Podejście to dobrze funkcjonuje, gdy formalizacja jest ograniczona. Problemy pojawiają się, gdy naukowcy ignorują błędy metodologiczne, takie jak podatność na wpływy instytucjonalne, inercja czy zmienność historyczna. Pozwala to na utrzymywanie się teorii błędnych lub niespójnych. Problemy te są minimalizowane, gdy teorie podlegają weryfikacji formalnej i empirycznej – procesowi niezależnemu od autorytetu, ahistorycznemu i logicznie rygorystycznemu. Chroni to przed pustymi narracjami, bezpodstawnymi pojęciami i odpornością na krytykę.
Problem konsensusu naukowego nie wynika z omylności naukowców, lecz z mechanizmów, za pomocą których konsensus jest ustanawiany i komunikowany. W obecnej „erze postprawdy” kluczowe jest rozróżnienie między twórczością naukową otwartą na krytykę a taką, która wykorzystuje naukę wyłącznie jako narzędzie perswazji.
Problemy współczesnej nauki
Próba stworzenia pełnej klasyfikacji w oparciu o kryteria Ajdukiewicza napotyka problemy, których Ajdukiewicz nie uwzględnił. On tworzył w epoce poznawczego optymizmu, w której oczywiste było, że nauka to droga ku prawdzie.
1. Problemy informatyki
Kwestia prawdy w świecie wirtualnym nie mogła być rozważana w czasach Szkoły Lwowsko-Warszawskiej z oczywistych względów.
Fundamentem informatyki jest bez wątpienia matematyka. Konsensus naukowy odgrywa w informatyce niewielką rolę - priorytetem są standardy i dobre praktyki. Decyzje o ich akceptacji mają charakter wolnorynkowy. Opisy obiektów technicznych są z założenia prawdziwe, choć mogą zawierać błędy lub informacje nieaktualne. Implementacja tych opisów (programy) to wypowiedzi w ścisłym języku o charakterze performatywnym. Opisują one coś, co możemy nazwać „środowiskiem wirtualnym”, w którym prawda jest konstruowana, a nie odkrywana. Dopiero refleksja na temat roli informatyki wprowadza elementy, które można traktować jako swobodną twórczość naukową (to jednak raczej są teksty z pogranicza informatyki).
Informatyka nie jest ani typową nauką aprioryczną, ani empiryczną. Jeśli jednak weźmiemy pod nasz uwagę cel, jakim jest stworzenie algorytmów oceniających teksty naukowe - nie ma potrzeby tworzenia odrębnej kategorii dla informatyki. Pomocna jest klasyfikacja ogólna, ponieważ teksty informatyczne mogą mieć charakter opisów technicznych, analiz teoretycznych lub esejów filozoficznych.
2. Problem nauk społecznych
Klasyfikację Ajdukiewicza należy rozszerzyć o nauki społeczne, które wykorzystują matematykę jako narzędzie perswazji. Problem ten jest dobrze udokumentowany w literaturze. W ekonomii i socjologii ilościowej krytycy zarzucają tym dyscyplinom tworzenie „iluzji rygoru”. Pojawiają się wątpliwości, czy formalizacja i statystyka wystarczają, by uczynić je tak empirycznymi jak fizyka. W literaturze anglojęzycznej zjawisko to określa się mianem physics envy [i] .
Autorzy książki Fashionable Nonsense [ii] ostro skrytykowali nadużywanie matematyki, fizyki i formalnego żargonu w humanistyce i naukach społecznych. Krytykowana jest również ekonomia za nadmierną formalizację i traktowanie „formalizmu matematycznego” jako ideologii [iii].
Jakie wnioski z tej krytyki są istotne dla algorytmu analizy tekstów? Najuczciwszym podejściem jest uznanie, że w ekonomii retorycznej modele ekonomiczne mogą pełnić funkcję metafor (McCloskey). Jednocześnie, podobnie jak w informatyce, narracje ekonomistów mają wartość performatywną, a formalizacja umożliwia jasną analizę wyników i projektów.
Podsumowując: matematyka jest cennym narzędziem analitycznym, lecz algorytm klasyfikacji tekstów powinien być w stanie rozpoznać sytuacje, w których matematyka w naukach społecznych pełni głównie funkcję fasady lub środka perswazji.
3. Problem nauk humanistycznych
Humaniści przedstawiają fakty i konstruują narracje dotyczące przeszłości, praktyk kulturowych lub idei. Stosowanie technik retorycznych w tych narracjach jest powszechne – zwiększa przystępność i umożliwia pełnienie funkcji poznawczych przez metafory. Praktyka ta może jednak zacierać granicę między esejem a artykułem naukowym, utrudniając rozróżnienie między interpretacją a kreacją. Taka niejednoznaczność rodzi obawy o podważenie kryteriów naukowości i zastąpienie debaty merytorycznej argumentami stylistycznymi. Kryteriami tekstów naukowych w humanistyce mogą być argumentacja źródłowa, recenzja naukowa oraz jawne określenie celów i metodologii. Wymagania te mogą jednak prowadzić do izolowania wiedzy i ograniczania odkrywania kulturowego znaczenia opisywanych zjawisk.
Refleksja analityczna, rozwijana przez SLW, może pomóc w rozwiązaniu tych dylematów. Te kwestie poruszał w swoich pracach filozoficznych Andrzej Grzegorczyk [iv]. Jego zdaniem humanistyka nie tylko opisuje wydarzenia i idee, lecz także interpretuje ich sens i dokonuje wyboru tego, co istotne. W konsekwencji nauki humanistyczne nie mogą być aksjologicznie neutralne, ponieważ ich zadaniem jest odkrywanie tego, co ważne dla życia społecznego. W tym kontekście poglądy Grzegorczyka są zbieżne z myślą Karola Wojtyły (Jana Pawła II) [v]. Wspólne dla nich jest przekonanie, że symbole, pamięć zbiorowa i mity kulturowe nie mogą usprawiedliwiać przemocy ani wykluczenia. Działania muszą respektować powszechną godność każdej osoby, co wymaga zdolności racjonalnej refleksji, niezależnej od emocji zbiorowych.
Reasumując: w naukach humanistycznych można oceniać przyjętą metodologię i aksjologiczne założenia. Wbrew pozorom obydwa te aspekty są trudne do automatyzacji. Choć ocena metodologii wydaje się stosunkowo prosta, jednak nawet badanie zgodności ze źródłami jest technicznie trudne do wykonania. Rozbudowanych źródeł nie da się bezpośrednio powiązać z promptami LLM, a obecne modele mają ograniczony dostęp do internetu lub nie potrafią skutecznie przeszukiwać dużych repozytoriów online w czasie rzeczywistym.
Z tych powodów pełna automatyzacja oceny tekstów humanistycznych nie jest obecnie możliwa. Automatyzacja może jedynie wspierać specjalistów w danej dziedzinie.
4. Problemy logiki
Logika mogłaby stanowić potężne narzędzie do walki ze zjawiskiem określanym jako „post-prawda”. Wydaje się jednak, że główny wysiłek logików zmierza ku pozbawieniu ich dziedziny wiedzy cech szlachetnego narzędzia myślenia o bezwzględnej skuteczności:
1. Odrzucenie tezy o uniwersalności logiki klasycznej. Jak słusznie zauważył Andrzej Grzegorczyk na prawach logiki klasycznej oparta jest matematyka klasyczna, „będąca podstawą nowoczesnych nauk ścisłych i techniki” [vi]. W szczególności logika klasyczna stanowi fundament informatyki. Logiki nieklasyczne bywają stosowane - na przykład logika rozmyta w systemach przetwarzania wiedzy, ale wyłącznie jako wygodne strategie opisu. Do analizy działania i argumentacji logika klasyczna jest w pełni wystarczająca.
2. Działania jednoznacznie odrzucające ideę logiki jako czysto apriorycznej nauki, abstrakcyjnego języka i bezwzględnych reguł rozumowania. Nie chodzi bynajmniej o teoretyczne spory (jak w przypadku psychologizmu), ale praktykę wikłania logiki w ideologiczne spory. Na dodatek powiązane z przenoszeniem poza logikę przekonania o posiadaniu jedynej i bezwzględnej prawdy.
3. Nadmierną rolę strategii konsensusu. Trudno ocenić, jaka część tekstów logików stanowi zgłębianie myśli wcześniejszych autorytetów, tak jakby fundamentalne znaczenie miało, kto daną ideę sformułował. Na pewno ilość takich tekstów jest bardzo znacząca. W wyborze autorytetów logicy nie są też zbyt wybredni. Dużym „uznaniem w środowisku” cieszyli się ideolodzy tacy jak Barbara Stanosz, czy Jan Woleński.
Ta krytyka pozwala zrozumieć, dlaczego niniejszy tekst nie mógł powstać w środowisku naukowym. Przeprowadziłem eksperyment, polegający na próbie nadania mu ściśle naukowego charakteru i opublikowania w naukowym czasopiśmie. Otrzymałem decyzję odmowną – bez jednego słowa komentarza. Dzięki temu może tu pojawić się pełna wersja tekstu, pozbawiona autocenzury ;-). Co ważniejsze: tekst ten możemy potraktować jako projekt systemu, który będzie miał praktyczne zastosowanie.
Formalne kryteria oceny teorii naukowej
Przedstawione we wstępie rozważania pozwalają na wyodrębnienie następujących zastosowań twórczości naukowej:
1) debaty akademickie
2) przekazywanie wiedzy
3) formułowanie teorii objaśniających rzeczywistość.
W naukach humanistycznych i społecznych, nawet jeśli pojawiają się elementy teorii, to trudno od nich wymagać bezwzględnej ścisłości. Możemy jedynie oceniać, czy próby podejmowane w kierunku takiego uściślenia służą objaśnieniu głębszych idei, czy też – wręcz przeciwnie – są używane wyłącznie jako narzędzie perswazji.
W przypadku nauk zmierzających do odkrywania i opisywania praw przyrody, możemy zaproponować warunki oceny ich dojrzałości (skuteczności w dążeniu do postawionych celów).
Jak wspomniano wcześniej, sensowna teoria naukowa powinna posiadać model. Kryterium to nie jest jednak powszechnie stosowane, ponieważ nie obejmuje wiedzy znajdującej się w przedformalnej fazie nauki ani wiedzy humanistycznej. Mimo to na gruncie teorii modeli można opracować uniwersalne narzędzie analizy narracji naukowych – przynajmniej w odniesieniu do nauk empirycznych. Takie narzędzie analizy może zachęcać do weryfikacji teorii w odniesieniu do modeli, przywracając nauce misję odkrywania prawdy. Jeśli narracja ma potencjał generowania modeli, można ją zaklasyfikować jako twórczość naukową. Gdy potencjał ten zostanie zrealizowany, narracja staje się hipotezą lub teorią naukową, zależnie od weryfikacji empirycznej. Teorie, których nie da się modelować, mogą co najwyżej pełnić rolę narracji w ramach debat akademickich.
Opierając się na teorii modeli i późniejszej filozofii nauki, można zaproponować następujące kryteria, które powinna spełniać sensowna teoria naukowa:
-
Możliwa formalizacja: Jej kluczowe twierdzenia mogą być wyrażone jednoznacznie w języku formalnym.
-
Spójność semantyczna: Teoria posiada co najmniej jeden model, w którym jej twierdzenia są prawdziwe.
-
Ogólność strukturalna: Zdolność do zastosowania więcej niż jednego modelu. Teoria opisuje klasę możliwych systemów, a nie pojedynczy przypadek historyczny.
-
Nietrywialność / Otwartość: Teoria nie rozstrzyga każdego możliwego zdania (możliwe są „kontrmodele”).
-
Falsyfikowalność: Teoria wskazuje, jakie fakty mogłyby ją obalić.
-
Osadzenie teoretyczne: Teoria może zostać powiązana z innymi uznanymi teoriami w szerszej sieci wiedzy naukowej.
-
Użyteczność: Teoria powinna rozwiązywać konkretne problemy teoretyczne lub praktyczne, które bez tej teorii byłyby nie rozwiązane.
Narracje, które nie spełniają tych warunków, powinny być klasyfikowane jako twórczość naukowa, a nie teorie naukowe.
Te kryteria wydają się intuicyjnie oczywiste. Spróbujmy je przeanalizować poprzez ich formalizację.
Formalizacja
Stosowane oznaczenia:
Mówimy, że narracja ($N$) jest teorią naukową ($T$) w języku ($L$) wtedy i tylko wtedy, gdy spełnione są następujące warunki:
-
Możliwa formalizacja: Istnieje funkcja ($h$) taka, że $h : N \to Sent(L)$. Czyli teoria musi dopuszczać interpretację w języku formalnym.
-
Spójność semantyczna: $Mod(T) \neq \emptyset$. To znaczy, że teoria posiada co najmniej jeden model.
-
Ogólność strukturalna: $|Mod(T)| > 1$. Teoria dopuszcza więcej niż jeden model; nie jest kompletnym opisem pojedynczej struktury.
-
Nietrywialność / Otwartość: $\exists \psi \in Sent(L) : Mod(T \cup \psi) \neq \emptyset$ oraz $Mod(T \cup \neg\psi) \neq \emptyset$ . Teoria nie rozstrzyga każdego zdania języka. Można dodać warunek $Terms(\psi) \subset Terms(T)$, aby wyeliminować zdania semantycznie obce systemowi .
-
Falsyfikowalność (*): $\exists \phi \in Obs : Mod(T \cup \phi) = \emptyset$. Istnieją zdania, których obserwacyjne potwierdzenie prowadzi do unieważnienia teorii.
-
Osadzenie Teoretyczne: Istnieje teoria $T' \subseteq Sent(L)$ taka, że $T' \not\subseteq T$, $Mod(T \cup T') \neq \emptyset$ oraz $Mod(T \cup T') \subsetneq Mod(T)$. Teoria jest kompatybilna z co najmniej jedną odrębną teorią, ich suma jest spójna, a integracja nietrywialnie ogranicza klasę modeli $T$.
-
Użyteczność: $Mod(T \cup \psi) \neq \emptyset$ oraz $Mod((Sent(L) \setminus T) \cup \psi) = \emptyset$ . Istnieją zdania (problemy), które znajdują rozwiązanie (istnieje dla nich model) tylko w teorii T.
Oznaczone gwiazdką (*) kryterium wymaga dodatkowej analizy i objaśnienia, które zostaną przedstawione poniżej.
Zwięzła formuła: Teoria naukowa to strukturalnie ogólny, spójny i niekompletny zbiór zdań, który posiada stabilny rdzeń i dopuszcza formalną artykulację. Powinna być empirycznie falsyfikowalna poprzez zdania obserwacyjne i zdolna do nietrywialnej integracji z innymi teoriami we wspólnej przestrzeni modeli.
Krytyczna analiza
Możliwość sformułowania powyższych kryteriów w oparciu o teorię modeli i logikę klasyczną pokazuje skuteczność i uniwersalność takiej metody opisu. Naszym celem nie jest jednak tylko uzyskanie teoretycznego uzasadnienia, ale przejście do praktycznego zastosowania tych kryteriów. Biorąc to pod uwagę, bardzo użyteczny jest anglosaski pragmatyzm, który stawia na pierwszym miejscu ideę postępu, jako cel nauki. Czyli ważniejszy jest proces rozwoju, niż strukturalna analiza stanu obecnego (stąd może powstać wrażenie ignorowania osiągnięć polskich logików). Dyskusja, jaka się na ten temat odbyła dotyczyła w szczególności kryterium falsyfikowalności.
Falsyfikowalność lokalna
Wprowadzony przez Poppera idea falsyfikowalności, to wymóg, by teorie mogły być obalane przez dowody empiryczne. Nie jest to proces jednorazowy, ani automatyczny, ale ciągłe testowanie w ramach właściwych dla teorii procedur badawczych. W tym ujęciu system teoretyczny składa się z hipotez i ich konsekwencji, które mogą być poddane falsyfikacji bez konieczności odrzucenia całej teorii. W praktyce rzadko pojedynczy eksperyment prowadzi do odrzucenia całej teorii. Można to nazwać „falsyfikowalnością lokalną”: eksperyment pozwala odrzucić (falsyfikować) część teorii T (oznaczmy T_f), a reszta jest nadal sensowną teorią (posiada modele)
$\exists \mathcal{M}: \mathcal{M} \models T \setminus T_f \quad \wedge \quad \mathcal{M} \not\models T_f$
Czy jednak odrzucenie części teorii nie prowadzi do tego, że formalnie mamy do czynienia z inną teorią? Dlaczego nie przyjęto dużo prostszego rozwiązania, że odrzucamy wskutek falsyfikacji jeden lub więcej modeli, pozostawiając teorię w spokoju?
Narzuca się tu przykład mechaniki Newtona, która okazała się niestosowalna dla dużych prędkości. Odrzucono więc klasę modeli (ciała poruszające się z dużą prędkością), a teoria pozostała niewzruszona.
Wśród wielu argumentów, jakie można wysunąć przeciw takiemu rozwiązaniu najpoważniejszym jest otwarcie możliwości ochrony każdej teorii przed jej falsyfikowalnością. Zawsze moglibyśmy powiedzieć: „teoria nie jest fałszywa, tylko nie stosuje się jej do przedstawionego modelu”.
Tego problemu nie da się rozwiązać bez całkowitej zmiany perspektywy. Propozycje takich zmian można sprowadzić do idei stabilnego rdzenia teorii funkcjonującego w podlegającej ciągłej weryfikacji otoczeniu. Zgodnie z tezą Duhema–Quine’a tym otoczeniem są inne koncepcje i teorie, testowane „w pakiecie”. Z kolei Lakatos proponował, by w samej teorii wydzielić „pas ochronny”. Różnica sprowadza się do odpowiedzi na pytanie, czy można wskazać konkretne zdania których testowanie służy do weryfikacji teorii (odrzucamy pakiet koncepcji i teorii jako całość, czy elementy samej teorii).
Choć koncepcja Duhema–Quine’a wydaje się bardziej atrakcyjna – odnosi się ona całkowicie do praktyki naukowej, czyniąc ją bezużyteczną w analizie naukowych tekstów. Przyjmując poprawkę Lakatosa, można zaproponować nowe sformułowanie kryterium falsyfikowalności.
Dodatkowe oznaczenie:
Falsyfikowalność:
-
a) Struktura: Rdzeń / Pas Ochronny: $C \subset T$ oraz $Mod(C) \neq \emptyset$. Teoria posiada stabilny rdzeń i niepuste rozszerzenie ochronne.
-
b) Falsyfikowalność lokalna: $( \exists \phi \in \operatorname{Obs} : \operatorname{Mod}((T \setminus C) \cup \phi) = \emptyset ) lecz ( \operatorname{Mod}(C \cup \phi) \neq \emptyset )$.
Na koniec trzeba odpowiedzieć na pytanie, dlaczego chcemy chronić „rdzeń” teorii? Najprostszą odpowiedź daje znane arabskie przysłowie: nie wylewa się brudnej wody, póki nie mamy czystej. Użyteczne teorie nie są odrzucane z powodu ich falsyfikacji, ale dlatego, że pojawiają się teorie lepsze (bardziej ogólne, tłumaczące więcej zjawisk i z mniejszą lub zerową ilością anomalii). Czasem alternatywa w ogóle nie jest dostępna (mamy tylko jeden model kosmosu i jedną kosmologię) i wtedy pozostaje jedynie doskonalenie tego, co posiadamy.
Algorytm oceny z wykorzystaniem LLM
Powyższe kryteria można połączyć w algorytm oceny tekstów naukowych. Duże modele językowe wspomagają ten proces poprzez:
Takie systemy nie zastępują osądu eksperckiego; operują na wzorcach tekstowych, a nie na pełnym zrozumieniu semantycznym, i są podatne na błędy aproksymacji. Niemniej mogą służyć jako narzędzia wstępnego filtrowania w sytuacji nadmiaru publikacji. Szczegóły tego algorytmu zostaną omówione w odrębnym tekście.
Podsumowanie
Twórczość naukowa i teorie naukowe pełnią odrębne, lecz uzupełniające się role w rozwoju wiedzy. Twórczość napędza innowacje, podczas gdy teorie dążą do prawdy. Mylenie tych ról podważa wolność intelektualną i wiarygodność nauki. Przyjęcie opartych na modelach, formalnie ugruntowanych kryteriów pozwala przywrócić jasny cel badaniom naukowym – nie jako tworzenie perswazyjnych narracji, lecz systematyczne odkrywanie prawd o świecie. Narzędzia algorytmiczne mogą wspierać tę misję, pomagając odróżnić dojrzałe teorie od konstrukcji wstępnych lub czysto retorycznych.
Dodatkiem do niniejszego artykułu jest system oceniania narracji naukowych. Niebawem zostanie opublikowany projekt tego systemu i udostępnimy jego implementacja.
Literatura
-
Ajdukiewicz, K., 1985, Metodologiczne typy nauk, w: Język i poznanie, t. 1. In English: Pragmatic Logic (1974), Springer, DOI: 10.1007/978-94-010-2109-8X
-
Hodges, W., 1993, Model Theory, Cambridge University Press, DOI: 10.1017/CBO9780511551574X
-
Judycki, S., 2001, O klasycznym pojęciu prawdy, Roczniki Filozoficzne, vol. 49, nr 1, pp. 25-62.
-
Kassner, M., 2019, O pierwszeństwie interpretacji przed ontologią. Przyczynek do krytyki realizmu w filozofii nauk społecznych, Teoria Polityki, nr 3, pp. 123-145, DOI: 10.4467/25440845TP.19.006.10289X
-
Lakatos, I., 1978, The Methodology of Scientific Research Programmes, Cambridge University Press, DOI: 10.1017/CBO9780511621123X
-
Popper, K. R., 1959, The Logic of Scientific Discovery, Routledge, DOI: 10.4324/9780203994627X
-
Quine, W. V., 1951, Two Dogmas of Empiricism, Philosophical Review, vol. 60, nr 1, pp. 20-43, DOI: 10.2307/2181906X
-
Sokal, A., Bricmont, J., 1996, Fashionable Nonsense: Postmodern Intellectuals’ Abuse of Science, Picador, ISBN 978-0312204075.
-
Sozański, T., 1995, Co to jest nauka, w: Nauka. Tożsamość i tradycja, Universitas, Kraków, pp. 23-50.
-
Tarski, A., 2012, Wprowadzenie do logiki i do metodologii nauk dedukcyjnych, Fundacja Aleph, Warszawa.
-
Visser, A., 2004, Categories of Theories and Interpretations, Utrecht University Preprint.
-
Wozinski, J., 2017, Postmodernistyczna koncepcja wiedzy, ekonomii, etyki i historii gospodarczej w pracach Deirdre McCloskey, Dialogi Polityczne, nr 23, pp. 85-99, DOI: 10.12775/DP.2017.017X
-
[11] https://encyklopedia.slw.uw.edu.pl/articles/grzegorczyk-andrzej/#ideeproblemyrezultaty
-
Michał Gmytrasiewicz (2016), W.V. Quine a francuski konwencjonalizm. Problem analityczności zdań nauki
-
Andrzej Grzegorczyk (2018), W poszukiwaniu ukrytego sensu. Myśli i szkice filozoficzne.
-
Łukasz Hardt (2014) Modele, metafory i teoria ekonomii, https://diametros.uj.edu.pl/diametros/article/view/650/1045
-
Karol Wojtyła (1969), Osoba i czyn
Przypisy:
iiSokal i Bricmont (1996)
iiiSzersze omówienia tej problematyki można znaleźć w artykułach: Jakub Wozinski (2017), Łukasz Hardt (2014), Maciej Kassner (2019)
ivAndrzej Grzegorczyk (2018), Cytat, który może służyć za motto podjętej w niniejszym artykule analizy: „racjonalizmowi zamkniętemu, marksistowskiemu lub pozytywistycznemu, należy dziś przeciwstawić nie rezygnację z rozumu, ale racjonalizm otwarty na wartości, rozum widzący wartości i umiejący o nich mówić wnikliwie, precyzyjnie i konsekwentnie”.
vZob. Karol Wojtyła (1969)