Miarą sukcesu rozwojowego współczesnych regionów i zarazem czynnikiem podtrzymującym trwałość
tego sukcesu jest przede wszystkim jakość życia mieszkańców. Według definicji Rady Europy (A new
strategy for Social Cohesion, 2004, s. 3) spójność społeczna to zdolność terytorialnych społeczności do
zapewnienia dobrobytu wszystkim swoim członkom, zmniejszania rozwarstwień społecznych i unikania
polaryzacji. W ocenie spójności społecznej regionu dolnośląskiego w przekroju powiatów w latach
2005–2015 uwzględniono zmienne z następujących dziedzin: dochody i aktywność ekonomiczna ludności,
warunki mieszkaniowe ludności, dostępność usług i przestrzeni publicznej. Do pomiaru i oceny zmian
poziomu spójności społecznej województwa dolnośląskiego w przekroju powiatów w latach 2005–2015
zastosowano odległość GDM1 oraz miernik Theila.
Celem artykułu było zaproponowanie nowej metody konstrukcji zmiennej syntetycznej. Aby ocenić
poziom rozwoju obiektu, analizowano jego odległość od wzorca (antywzorca) względem sumy odległości
od wzorca (antywzorca) wszystkich obiektów. W ten sposób scharakteryzowano region na tle wszystkich
pozostałych. Opisana miara jest ograniczona. Zmienne diagnostyczne nie wymagają normalizacji
ani zamiany na stymulanty. Podstawową zaletą sugerowanego podejścia jest porównywalność analiz
prowadzonych dla różnych lat. Proponowaną metodę zilustrowano przykładem empirycznym. Wartości
miar porównano z wynikami otrzymanymi na podstawie metody wzorcowej Hellwiga. Były podobne,
ale nie tożsame. W kolejnym kroku badania porównano obie metody pod względem poprawności. Żadna
z nich nie wykazała znaczącej przewagi.
W artykule przedstawiono wyniki badania związku aktywności wynalazczej przedsiębiorstw przemysłowych
państw Grupy Wyszehradzkiej, mierzonej za pomocą liczby zgłoszeń do Europejskiego
Urzędu Patentowego, z wielkością nakładów na badania i rozwój ponoszonych w obszarach działalności
gospodarczej o różnym poziomie zaawansowania technicznego. Wyniki jedno- i wielorównaniowej analizy
kointegracyjnej danych panelowych dla lat 2005–2014 wskazują, że długookresowa elastyczność liczby
zgłoszeń patentowych względem nakładów na badania i rozwój jest wyższa, po pierwsze, w przypadku
działalności w dziedzinie wysoko zaawansowanej techniki, niż w dziedzinie średniowysoko zaawansowanej
techniki, po drugie, w dziedzinie wysoko zaawansowanej techniki dla aktywności badawczej
finansowanej ze środków własnych, niż w przypadku badań finansowanych ze środków publicznych.
Stwierdzono również, że w przypadku średnionisko i nisko zaawansowanej techniki, nakłady na badania
i rozwój nie determinują jednoznacznie liczby zgłoszeń patentowych.
Celem opracowania jest prezentacja możliwości wykorzystania skierowanych liczb rozmytych
(OFN) do podejmowania decyzji wielokryterialnych. W pracy przedstawiono przykłady interpretacji
OFN, propozycje wykorzystania OFN w rozmytych metodach wielokryterialnych do reprezentacji typu
kryterium oraz wyrażeń lingwistycznych. Omówiono rozmyte procedury SAW oraz TOPSIS oparte na
OFN, które pozwalają na uwzględnienie niejednoznaczności, nieprecyzyjności oraz opisów werbalnych
w ocenie wariantów decyzyjnych. Artykuł ma charakter metodologiczny i może stanowić inspirację do
dalszych badań nad zastosowaniem OFN w metodach wielokryterialnych.
Teoria przewiduje występowanie zależności długo- i krótkookresowych dla wielu różnych wielkości
ekonomicznych. Wśród przykładów można wymienić różne wersje modelu realnego cyklu koniunkturalnego
(modelu RBC). Celem niniejszego opracowania jest empiryczna analiza podstawowego modelu
RBC zbudowanego dla produkcji, konsumpcji i inwestycji w gospodarce polskiej w latach 1995–2015.
Do zbadania tego zagadnienia wykorzystano grupę bayesowskich modeli typu VEC, w których prócz
restrykcji nałożonych na parametry opisujące związki długookresowe, dodatkowo nałożono restrykcje na parametry opisujące zależności krótkookresowe. Dokonując bayesowskiego porównania wymienionych
modeli wywnioskowano, że zachowanie omawianych wielkości jest sterowane za pomocą jednego
wspólnego czynnika cyklicznego oraz dwóch wspólnych trendów stochastycznych. Dodatkowo, zbadano
udział wstrząsów o charakterze trwałym i przejściowym w wyjaśnianiu wariancji błędu prognoz oraz
ich wpływ na analizowane zmienne.
W artykule badana jest ekonomiczna efektywność działań mających na celu weryfikację potencjalnych beneficjentów programów charytatywnych. Taka weryfikacja ma na celu ograniczenie liczby osób otrzymujących pomoc charytatywną, które nie spełniają kryteriów jej przyznania. Jednocześnie, wiąże się ona z kosztami ponoszonymi przez organizatora programu. W artykule zaproponowano model teoretyczny opisujący to zjawisko. Do przeprowadzania analizy modelu wykorzystano metody optymalizacyjne oraz symulacyjne. Wynika z niej, że w zależności od parametrów programu charytatywnego optymalna może być jedna z trzech decyzji: przyznanie pomocy bez wprowadzania weryfikacji, przyznawanie pomocy po uprzedniej weryfikacji lub przeznaczenie środków pomocowych na inny cel. Optymalność rozwiązania zależy od charakterystyk programu, takich jak średnia kwota pomocy, średni koszt weryfikacji oraz odsetek osób potrzebujących spełniających założenia programu. W zależności od tych zmiennych organizacja charytatywna powinna podjąć decyzję o ewentualnym wprowadzeniu weryfikacji.
W artykule zaprezentowano model pozwalający na ustalenie optymalnej liczby łączonych zamówień pozwalającej na skrócenie średniego czasu kompletacji. Omówione zostały dwa sposoby kompletacji zleceń łączonych: „pobierz i sortuj” oraz „sortuj podczas pobierania”. Analizie poddano magazyny jednoblokowe prostokątne, gdzie towary składowano w sposób całkowicie losowy oraz losowo w oparciu o klasyfikację ABC. Zbadane zostały dwie heurystyki wyznaczania trasy magazyniera: s-shape i return, dla których można wyznaczyć wzory na średnie czasy kompletacji korzystając z własności rozkładów prawdopodobieństwa: dwumianowego i jednostajnego. W badaniach uwzględniono problem występowania zatorów w magazynie i na podstawie rezultatów symulacji zaproponowano postać analityczną funkcji czasu blokowania. Z przeprowadzonej analizy wynika, że korzyści czasowe z każdego kolejnego dołączonego do listy kompletacyjnej zamówienia są coraz mniejsze. Wykorzystywanie klasyfikacji ABC do składowania towarów szybko rotujących może w magazynach o niewielkiej liczbie alejek i przy
dużych zleceniach kompletacyjnych spowodować wydłużenie czasu kompletacji
Autor niniejszego artykułu postanowił zbadać skuteczność wykorzystania metod łączenia oraz selekcji klasyfikatorów w prognozowaniu upadłości przedsiębiorstw w Polsce. Przeprowadzone badanie pozwoliło na porównanie jakości stawianych prognoz przez cztery klasyfikatory indywidualne: liniowa analiza dyskryminacyjna, regresja logistyczna, sztuczna sieć neuronowa oraz las losowy z wynikami dziewięciu metod łączenia oraz selekcji, bazujących na zbiorze powyższych klasyfikatorów. Autor artykułu przeprowadził także analizę wpływu liczby uwzględnianych zmiennych na poprawność klasyfikacji poszczególnych metod.
W opracowaniu podjęto po raz kolejny zagadnienie wyboru metody porządkowania liniowego
jako odpowiedź na propozycję procedury przedstawionej w pracy Kisielińskiej (2016). Pokazano na dwóch przykładach, że ranking zależy od zastosowanej metody, a różnice są istotne. Podkreślono tym samym konieczność zastosowania kilku metod przed budową ostatecznego rankingu oraz wyeliminowaniu rankingów „odstających”. W artykule zaproponowano procedurę ich eliminacji. Oparto ją na średniej arytmetycznej i odchyleniu przeciętnym miar podobieństwa rankingów uzyskanych z wykorzystaniem kilku metod porządkowania liniowego. Z przedstawionych badań wynika, że dokonując wyboru metody porządkowania liniowego należy przeprowadzić obliczenia z zastosowaniem kilku procedur i dokonać wyboru wykorzystując już istniejące rozwiązania w literaturze lub zweryfikować z ekspertami badanej tematyki.
W porządkowaniu liniowym obiektów wielocechowych najpopularniejszą metodą doprowadzania
danych do porównywalności jest transformacja zmiennych do przedziału [0;1] z jednoczesną
zamianą destymulant na stymulanty. W tym przekształceniu wykorzystuje się zaobserwowane najmniejsze i największe wartości zmiennych. Jeżeli występują wartości odstające, lub rozkład zmiennej jest bardzo asymetryczny to w efekcie mamy do czynienia ze sztucznym ważeniem tej zmiennej. Przy asymetrii prawostronnej zmienna sztucznie zyskuje na zaznaczeniu, a przy lewostronnej – traci. W pracy zaproponowano nową, iteracyjną metodę porządkowania obiektów wielocechowych, która pozwala na ominięcie omówionej niedogodności metody klasycznej. Dalsze pozycje w rankingu wyznacza się kolejno, po jednej w każdej iteracji, a przyporządkowany obiekt jest eliminowany ze zbioru, w którym poszukujemy obiektu następnego w kolejności. Taka procedura wymagała również zaproponowania nowego sposobu wyznaczania wskaźnika agregatowego.
Praca nawiązuje do artykułu Panek (2016b) zawierającego dowód tzw. „słabego” twierdzenia o wielopasmowej magistrali w stacjonarnej gospodarce typu Gale’a. Obecnie prezentujemy „silną” oraz „bardzo silną” wersję twierdzenia o wielopasmowej magistrali. Pokazujemy, że mimo uogólnienia modelu – polegającego na zastąpieniu pojedynczej magistrali (promienia von Neumanna) wiązką magistral, którą nazywamy magistralą wielopasmową– nie zmieniają się
wcześniej udowodnione magistralne własności optymalnych procesów wzrostu w gospodarce Gale”a.