REKLAMA

Nowa ekonomia - nowe prawa

2001-01-25 00:00
publikacja
2001-01-25 00:00

Nowa ekonomia - nowe prawa

Andrzej Wojtyna

Czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności, czy też konieczne staje się rozwinięcie “nowej ekonomii”?

W połowie lat 90. w odniesieniu przede wszystkim do gospodarki Stanów Zjednoczonych zaczęto coraz częściej używać określenia “nowa gospodarka” (new economy). W ślad za tym w literaturze pojawiło się również określenie “nowa ekonomia” (new economics). Nasuwa się więc pytanie, czy w gospodarce amerykańskiej zaszły rzeczywiście tak istotne jakościowe zmiany, które uzasadniają posługiwanie się nowym pojęciem. Drugie pytanie dotyczy natomiast tego, czy tradycyjna ekonomia dysponuje odpowiednimi narzędziami analitycznymi pozwalającymi opisać i wyjaśnić nowe jakościowo zjawiska i zależności czy też konieczne staje się rozwinięcie “nowej ekonomii”. Z jednej strony chodzi o określenie, czy zmiany nie odnoszą się jedynie do techniki a nie ekonomii. Z drugiej natomiast strony problem dotyczy tego, czy stare prawa ekonomiczne wystarczy przekalibrować czy też trzeba je sformułować po nowemu (D’Andrea Tyson, 1999).

Długi boom

Szukanie odpowiedzi na te pytania ma pewne szczególne znaczenie w kontekście transformacji gospodarek postsocjalistycznych. Chodzi o to, że również wśród polskich ekonomistów i polityków pojawiają się opinie, w myśl których w pewnych specyficznych okresach niektóre podstawowe zależności przestają obowiązywać lub uzyskują jakościowo nowy charakter. Pojawia się więc ryzyko “importu” pewnych kontrowersyjnych, nie sprawdzonych koncepcji w celu pokazania, że w polityce gospodarczej można uniknąć trudnych wyborów i nie brać pod uwagę występujących ograniczeń.

W sensie chronologicznym pojęcie “nowa gospodarka” wiązane jest z okresem bardzo pomyślnego przebiegu koniunktury w Stanach Zjednoczonych w latach 90. Ze względu na korzystną koniunkturę w tym samym okresie pojęcie to jest przez niektórych autorów odnoszone również do Wielkiej Brytanii i Danii (Nielsen, 1999). Taylor (1998) uważa natomiast za właściwe posługiwanie się określeniem “długi boom”, odnoszącym się do kilkunastoletniego okresu stabilnej ekspansji gospodarki amerykańskiej, zapoczątkowanego w listopadzie 1982 r., a przerwanego jedynie krótką i łagodną recesją, która wystąpiła w drugiej połowie 1990 r. Zdecydowana większość autorów używa jednak pojęcia “nowa gospodarka” w kontekście szybkich zmian zachodzących w latach 90.

Istotna poprawa sytuacji gospodarczej w Stanach Zjednoczonych w ostatnim okresie zaskoczyła obserwatorów, ponieważ jeszcze kilka lat wcześniej nic jej właściwie nie zwiastowało. Sytuacja zaczęła ulegać wyraźnej poprawie ok. 1996 r., mimo że trudno wskazać konkretne zmiany we wcześniej dominujących niekorzystnych zjawiskach. Co więcej, wzmocnienie pozytywnych tendencji nastąpiło w okresie kryzysu azjatyckiego, który znacznie osłabił koniunkturę światową.

Pogłębionych studiów analitycznych na temat “nowej gospodarki” ukazało się do tej pory stosunkowo niewiele. Być może wynika to częściowo ze skumulowania się w tak krótkim okresie wielu nowych, trudnych do interpretacji zjawisk. Trudno jednak uznać toczący się dyskurs naukowy za adekwatny do skali wyzwań, jakie “nowa gospodarka” stawia przed badaczami. Niektórzy wybitni ekonomiści (Gordon, 2000) wyrażają w związku z tym zdziwienie, że obecna debata ustępuje znacząco wcześniejszym wielkim sporom ekonomistów dotyczącym np. przyczyn przyspieszenia inflacji w latach 60., hipotezy naturalnej stopy bezrobocia czy szoków podażowych. Zdecydowanie bardziej ożywiona dyskusja rozgorzała natomiast w mediach. Stosunkowo niewielka liczba opracowań stricte naukowych sprzyja wysuwaniu w tekstach publicystycznych radykalnych, ale słabo udokumentowanych tez. W rezultacie zarówno po stronie zwolenników, jak i przeciwników “nowej gospodarki” pojawiło się na jej temat wiele mitów.

Nowy paradygmat

Chociaż brak jest jednej powszechnie akceptowanej definicji “nowej gospodarki”, to za jej cechę konstytuującą uznaje się zazwyczaj rosnące znaczenie globalizacji i technik informatycznych (information technology), jako przyczyn leżących u podstaw zmian zachodzących w gospodarce. I tak zdaniem Nakamury (2000), “nowa gospodarka” lub “nowy paradygmat” oznacza “pogląd, w myśl którego innowacje w zaawansowanej technice i globalizacja rynków światowych zmieniły naszą gospodarkę na tyle, że musimy myśleć o niej i działać w niej w inny sposób”. Często istota “nowej gospodarki” jest definiowana poprzez przeciwstawienie jej “starej gospodarce” (np. Jorgenson i Stiroh, 2000A). Wówczas “nowa gospodarka” oznacza poszukiwanie źródeł szybszego wzrostu oraz zmian strukturalnych w rozwoju technik informatycznych, a w szczególności w szybkiej komercjalizacji Internetu, które to czynniki w fundamentalny sposób modyfikują działalność gospodarczą. “Starą gospodarkę” należy natomiast utożsamiać ze stanowiskiem wskazującym na “ospałość” gospodarki amerykańskiej w pierwszej połowie lat 90. oraz na splot korzystnych, ale przejściowych szoków, które wystąpiły w drugiej połowie dekady. Przy takim postawieniu sprawy nasuwają się następujące ważne pytania (por. Tyson, 1999): czy niekorzystna relacja między inflacją a bezrobociem powróci, gdy skończy się korzystne oddziaływanie szoków krótkookresowych, czy też uległa ona trwałej poprawie w wyniku zmian w technice oraz nasilenia się konkurencji międzynarodowej? Czy gospodarka powróci do poprzedniego, niższego “limitu prędkości”, gdy dokona się już restrukturyzacja będąca konsekwencją zastosowania nowych technik, czy też techniki te w sposób trwały podniosą tempo produktywności i wzrostu gospodarczego?

W dyskusji nad istotą “nowej gospodarki” bardzo ważne miejsce zajmuje kwestia, czy korzyści płynące z zastosowania technik informatycznych okażą się porównywalne z pozytywnymi skutkami wcześniejszych rewolucji technicznych. Wiele na to wskazuje, aczkolwiek specjaliści różnią się dosyć poważnie w opiniach na temat konsekwencji obecnej “rewolucji” (zob. szerzej Woodall, 2000).

Za ważną cechę określającą istotę “nowej gospodarki” uważa się też wysoki stopień jej przejrzystości. Za sprawą Internetu kupującym i sprzedającym łatwiej jest bowiem porównywać ceny, zbyteczni stają się pośrednicy, a więc obniżają się koszty transakcyjne; ograniczeniu ulegają również bariery wejścia. Podstawowe pytanie o charakterze normatywnym dotyczy natomiast tego, czy i w jakim zakresie “nowa gospodarka” oznacza “lepszą gospodarkę”.

Jeśli przyjąć, że pierwotną, nieredukowalną do innych, przyczyną “nowej gospodarki” jest przyspieszenie postępu technicznego w sektorze IT, to wywołany przez to zjawisko ciąg zależności można najbardziej skrótowo przedstawić w następujący sposób (Gordon, 2000). Szybsze tempo wydajności pracy pozwoliło utrzymać na niskim poziomie inflację mimo szybszego wzrostu płac. Niska inflacja pozwoliła Systemowi Rezerwy Federalnej utrzymywać przez pięć lat stopy procentowe na mniej więcej niezmienionym poziomie, podczas gdy oprocentowanie długookresowych obligacji rządowych było wyraźnie niższe. Luźna polityka monetarna i szybki wzrost gospodarczy spowodowały bezprecedensowy wzrost zysków, który wraz z falą optymizmu związaną z przyspieszeniem postępu technicznego wywołał jeszcze szybszy wzrost kursów na giełdzie. Wynikający stąd wzrost zamożności gospodarstw domowych (efekt bogactwa) wywołał wzrost wydatków konsumpcyjnych zdecydowanie przekraczający wzrost rozporządzalnych dochodów i tym samym zanik oszczędności gospodarstw domowych (w każdym razie mierzonych w sposób konwencjonalny).

Podsumowując, podstawowym przejawem i dowodem jakościowych zmian składających się na “nową gospodarkę” jest, zdaniem jej zwolenników, zachowanie się podstawowych wielkości makroekonomicznych, a ściślej – kombinacja szybkiego wzrostu gospodarczego, bardzo niskiego poziomu inflacji i bezrobocia oraz rekordowych notowań na giełdzie.

Wkład sektora

Mikroekonomiczną podstawą tych zmian jest natomiast daleko idąca transformacja, jaka dokonała się (i nadal się dokonuje) w sposobie prowadzenia przez firmy działalności gospodarczej w wyniku coraz powszechniejszego stosowania technik informatycznych. Zwraca się uwagę, że w okresie 1995-98 wkład sektora technik informatycznych we wzrost gospodarczy wynosił 35 proc., mimo że jego udział w PKB wynosi tylko 8 procent.

Część ekonomistów sądzi, że nie można wyjaśnić funkcjonowania nowej gospodarki za pomocą ortodoksyjnej (neoklasycznej) ekonomii. Ich zdaniem, w gałęziach opartych na wiedzy bardzo dużą rolę odgrywają rosnące przychody, które przyjmując postać tzw. efektów sieciowych sprzyjają powstawaniu pozycji monopolistycznej. Efekty te oddziałują zarówno na produkcję, jak i na konsumpcję. Wspólną cechą nowych technik jest to, że ich wartość dla każdego użytkownika wzrasta proporcjonalnie do liczby wszystkich użytkowników. Jeśli więc dany produkt usadowi się na rynku, to popyt na podobne produkty załamie się; może się okazać, że konsumenci zostaną zmuszeni do korzystania z gorszego produktu, co należy uznać za rodzaj niesprawności rynku. Zdaniem innych ekonomistów, aczkolwiek efekty sieci i związane z nimi niesprawności rzeczywiście występują, to ich wyjaśnienie nie wymaga wyjścia poza ekonomię neoklasyczną. Ich zdaniem, niesprawność rynku pojawia się tylko wtedy, gdy gorszy produkt utrzyma się na rynku, mimo że korzyści z przerzucenia się inny, lepszy produkt są większe od kosztów. Jeśli natomiast gorszy produkt utrzymuje swą pozycję, ponieważ koszty przerzucenia się na inny produkt są wysokie, to jest to sytuacja zgodna z postulatami tradycyjnej ekonomii: przerzucenie się byłoby działaniem nieefektywnym. Tak więc uwzględnienie kosztów “przerzucenia się” bardzo istotnie zawęża zakres niesprawności rynku. Co więcej, zarówno konsumenci, jak i producenci, którzy ponoszą straty w wyniku tej niesprawności rynku będą poszukiwać sposobu wyjścia z “pułapki gorszego produktu”.

Na inny rodzaj ograniczenia, na jaki w wyjaśnianiu najważniejszych cech i mechanizmów “nowej gospodarki” natrafia ekonomia głównego nurtu, zwraca uwagę Nakamura (2000). Autor ten przyjmuje stanowisko metodologiczne J. Hicksa, zgodnie z którym nauki ekonomiczne muszą adaptować się do zmieniającego się charakteru gospodarki i stawia tezę, że dla zrozumienia “nowej gospodarki” bardziej przydatny od dominującego we współczesnej ekonomii “paradygmatu niewidzialnej ręki” (doskonałej konkurencji) jest “paradygmat twórczej destrukcji” J. Schumpetera. Wynika to przede wszystkim ze wzrostu znaczenia innowacji w gospodarce amerykańskiej, co znajduje odzwierciedlenie we wzroście wśród zatrudnionych udziału tzw. twórczych pracowników.

Doskonała konkurencja

Paradygmat doskonałej konkurencji rozwinięty został na gruncie teorii Smitha przez Jevonsa, Walrasa i Mengera. Odpowiadał on dobrze warunkom przełomu wieków, kiedy dominowała bezpośrednia produkcja dóbr i usług. Zdaniem Nakamury, jego adekwatność staje się jednak problematyczna w warunkach, gdy tak duża liczba pracowników wykonuje zadania wymagające kreatywności. Wynika to stąd, że “paradygmat niewidzialnej ręki” traktuje zarówno korzyści skali, jak i kreatywność (w tym postęp techniczny) jako wielkości egzogeniczne, znajdujące się zasadniczo poza zainteresowaniem ekonomii

Według Nakamury, podstawowe elementy teorii Schumpetera są obecne w dynamicznie rozwijającej się w ostatnich latach teorii wzrostu endogenicznego. Chociaż trudno to kwestionować, to jednak za arbitralne należy uznać zaklasyfikowanie autorów tej teorii do “paradygmatu twórczej destrukcji”. Oznacza to bowiem, że zostali oni wyłączeni z głównego nurtu ekonomii, co pozostaje w sprzeczności z dominującymi schematami klasyfikacyjnymi współczesnej myśli ekonomicznej i najprawdopodobniej także z opinią samych zainteresowanych. Można natomiast przyjąć, że jest to przejaw komplikowania się struktury współczesnej ekonomii, a ściślej – stopniowego inkorporowania przez główny nurt pewnych koncepcji, które w przeszłości wydawały się pozostawać w stosunku do niego w silnej opozycji.

Bardziej bezpośrednie implikacje rozważań Nakamury dla dyskusji o “nowej gospodarce” są następujące. Otóż dominacja “paradygmatu niewidzialnej” ręki powoduje, że znaczenie kreatywności jest słabo uwzględniane w statystykach. Jej sposób pomiaru pozostawia wiele do życzenia, co z kolei prowadzi do zaniżania rzeczywistego tempa wzrostu, poziomu oszczędności oraz zysków.

Poglądy akcentujące efekty sieci i rosnące przychody są najbardziej radykalnym wariantem koncepcji nowej gospodarki. Stiroh (1999) określa go jako wariant “nowych źródeł wzrostu” i uważa, że jest on najbardziej interesujący, najbardziej kontrowersyjny i najtrudniejszy do udowodnienia. Pozostałe dwa warianty mają charakter bardziej umiarkowany. Zgodnie z pierwszym z nich, długookresowe tempo wzrostu gospodarczego uległo przyspieszeniu. Dzięki wyższemu tempu wydajności gospodarka może rozwijać się szybciej bez zwiększenia się presji inflacyjnej. Wariant trzeci akcentuje natomiast zmiany w charakterze cyklu koniunkturalnego, a ściślej – w charakterze krótkookresowej zależności między inflacją a bezrobociem. Cechą łączącą wszystkie trzy wersje koncepcji nowej gospodarki jest traktowanie globalizacji i komputeryzacji nie jako przejawu oddziaływania innych czynników, lecz jako siły napędowej fundamentalnych zmian w gospodarce. Zdaniem Stiroha dwie najbardziej radykalne tezy formułowane przez zwolenników koncepcji “nowej gospodarki” to: a) teza o “śmierci” (“końcu ery”) inflacji i b) teza o “śmierci” cyklu koniunkturalnego.

Przeciwnicy koncepcji nowej gospodarki uważają natomiast, że aczkolwiek globalizacja i komputeryzacja wywarła bardzo istotny wpływ na gospodarkę amerykańską, to zbyt wcześnie jest jeszcze, aby stwierdzić, iż dokonały się w niej poważne zmiany strukturalne. Zwracają oni uwagę, że bardzo pomyślny przebieg koniunktury w latach 90. można w decydującej mierze wyjaśnić równoczesnym wystąpieniem kilku korzystnych szoków podażowych.

Źródła siły

Bardzo ważne miejsce w toczącej się dyskusji zajmuje problem, czy i w jakim stopniu bardzo korzystna sytuacja makroekonomiczna w Stanach Zjednoczonych w latach 90. jest wynikiem immanentnych cech gospodarki, a w jakim właściwie prowadzonej polityki ekonomicznej. Przykładem krańcowego stanowiska, całkowicie negującego znaczenie polityki rządu, jest opinia Sahlmana (1999). Jego zdaniem, świetna sytuacja w gospodarce amerykańskiej utrzyma się, jeśli tylko władze potrafią powstrzymać się od jakiejkolwiek interwencji. Za realne zagrożenie dla gospodarki uważa nie wysokie tempo wzrostu, ale sztuczne jego zahamowanie poprzez podniesienie stóp procentowych. Źródeł siły gospodarki amerykańskiej upatruje natomiast w następujących czynnikach: a) wysokim statusie, jakim cieszą się przedsiębiorcy szukający nowych rozwiązań, b) wysokim poziomie tolerancji wobec niepowodzeń, jakimi kończy się znaczna część przedsięwzięć, c) łatwym dostępie nowych przedsiębiorców do kapitału, d) przyciąganiu przez sektor przedsiębiorstw (a nie jak to dawniej było - przez sektor finansowy) najbardziej utalentowanych pracowników.

Przykładem diametralnie odmiennego stanowiska jest pogląd wyrażony przez Taylora (1998). Otóż dokonując przeglądu czynników, które mogłyby wyjaśnić utrzymywanie się w Stanach Zjednoczonych “długiego boomu” (wzrost znaczenia sektora usług, lepsze zarządzanie zapasami, korzystne szoki podażowe), autor ten dochodzi do wniosku, że ich znaczenie nie jest wystarczająco duże. Przechodząc następnie do roli, jaką odegrać mogła polityka makroekonomiczna stwierdza, że konieczne staje się też odrzucenie tezy o pozytywnym wpływie polityki fiskalnej. Uważa natomiast, że “długi boom” znajduje bardzo przekonujące wytłumaczenie w charakterze prowadzonej przez System Rezerwy Federalnej (SRF) polityce monetarnej. Kluczem do sukcesu okazuje się znacznie bardziej agresywne reagowanie SRF na wzrost presji inflacyjnej w okresie “długiego boomu” niż miało to miejsce w okresach poprzednich. Dzięki takiemu podejściu udało się utrzymać inflację na niższym i bardziej stabilnym poziomie.

Na zdecydowanie “wyższą jakość” polityki SRF w ostatnich kilkunastu latach wskazują wyniki prowadzonych przez Romer (1999) badań nad cyklem koniunkturalnym. Przeprowadzona przez tę autorkę analiza wskazuje, że zakres wahań cyklicznych po drugiej wojnie światowej nie uległ radykalnemu zmniejszeniu w porównaniu z okresem międzywojennym i okresem przed pierwszą wojną światową, aczkolwiek okresy ekspansji były dłuższe, a liczba poważnych recesji zmniejszyła się. Nastąpiła natomiast bardzo poważna zmiana przyczyn wywołujących wahania cykliczne. W okresie powojennym polityka makroekonomiczna oraz podjęte reformy gospodarcze wyeliminowały lub ograniczyły wiele szoków, które w przeszłości wywoływały recesje. Jednocześnie jednak pojawiły się recesje wywoływane przez politykę ukierunkowaną na ograniczenie inflacji. Jak zauważa autorka, “zastąpiliśmy przedwojenne cykle napędzane działaniami instynktownymi (animal spirits) i panikami finansowymi powojennymi cyklami napędzanymi przez politykę gospodarczą”.

Uzyskane przez Romer wyniki rodzą oczywiście pytanie, dlaczego w okresie powojennym inflacja stała się dużo poważniejszym problemem. Szukając odpowiedzi na to pytanie autorka formułuje pogląd, że podstawową rolę odegrały w tym względzie błędy popełnione przez polityków gospodarczych. Problemem nie był więc brak odpowiednich narzędzi, lecz niewłaściwy sposób ich wykorzystania. Jej zdaniem, ewolucji ulegał również charakter popełnianych błędów. W latach 60. i 70. błędy stały się ponadto bardziej systematyczne i rozmyślne.

Nietypowy przypadek

Znacznie bardziej stabilne zachowanie się wskaźników makroekonomicznych po roku 1985 Romer przypisuje przede wszystkim temu, że inflacja znalazła się pod znacznie ostrzejszą kontrolą. Polityka makroekonomiczna przestała generować okresy szybszej inflacji, w związku z czym niepotrzebne stało się wywoływanie recesji w celu jej poskromienia. Bardziej wyważona polityka sterowania popytem przyczyniła się więc w dużo większym stopniu do powstania “nowej gospodarki” niż zmiany strukturalne, globalizacja i rewolucja informatyczna. Otwartą sprawą pozostaje natomiast to, w jakim stopniu lepsza polityka była skutkiem rozwoju wiedzy ekonomicznej, a w jakim kwalifikacji poszczególnych polityków gospodarczych oraz coraz większej zgodności poglądów co do celów możliwych do osiągnięcia przez politykę ekonomiczną.

Należy zwrócić jednak uwagę, że z punktu widzenia zmian w przebiegu cyklu koniunkturalnego przypadek gospodarki amerykańskiej jest raczej nietypowy. Badania przeprowadzone przez Zarnovitza (1999) na próbie siedmiu dużych i siedmiu małych gospodarek wskazują, że recesje występowały częściej w drugiej niż w pierwszej części okresu powojennego. Brak jest też dowodów empirycznych na to, że decydenci potrafią antycypować recesje i podejmować skuteczne środki zapobiegawcze. Rezultatowi temu zaprzeczają z kolei badania Balla (1999). Wynika z nich, że wśród krajów G-7 podejście władz monetarnych wobec ryzyka wystąpienia recesji było zróżnicowane. Na początku lat 80. zaznaczyła się mianowicie wyraźna dychotomia między krajami Ameryki Płn. (Stany Zjednoczone i Kanada) a krajami europejskimi. W większości przypadków recesji USA i Kanada dokonały ostrych cięć nominalnych stóp procentowych, podczas gdy w krajach europejskich pozostały one na niezmienionym poziomie lub nieznacznie wzrosły. Zdaniem Balla, fakty te przeczą dominującemu, konwencjonalnemu poglądowi, że polityka SRF była w tym okresie jednostronnie ukierunkowana na walkę z inflacją. W rzeczywistości SRF zaostrzył co prawda politykę w okresie poprzedzającym recesję, ale poluzował ją, gdy tylko recesja się rozpoczęła, mimo że inflacja nie uległa jeszcze wyraźnemu obniżeniu. “Wyższa jakość” tak prowadzonej polityki polega według Balla na tym, że nie wywołuje ona kosztu w postaci trwale wyższego bezrobocia, który występuje przy pasywnym charakterze polityki w czasie recesji.

Autor jest profesorem w Akademii Ekonomicznej w Krakowie i INE PAN. Tekst, którego pierwszą część publikujemy, będzie wygłoszony na VII Kongresie Ekonomistów Polskich (25-26 stycznia w Warszawie).

Źródło:
Tematy
Zapytaj eksperta o kredyt hipoteczny

Zapytaj eksperta o kredyt hipoteczny

Komentarze (0)

dodaj komentarz

Powiązane

Polecane

Najnowsze

Popularne

Ważne linki