Podejmowanie decyzji zarządczych w warunkach ryzyka i niepewności

W tym artykule omówimy środowisko decyzyjne menedżerów: - 1. Pojęcie środowiska decyzyjnego 2. Środowisko decyzyjne w warunkach niepewności 3. Analiza ryzyka 4. Ekwiwalenty pewności.

Koncepcja środowiska decyzyjnego:

Punktem wyjścia teorii decyzji jest rozróżnienie między trzema różnymi stanami przyrody lub środowiskami decyzyjnymi: pewność, ryzyko i niepewność.

Rozróżnienia dokonuje się na podstawie stopnia wiedzy lub informacji posiadanych przez decydenta. Pewność można scharakteryzować jako stan, w którym decydent posiada pełną i doskonałą wiedzę na temat wpływu wszystkich dostępnych alternatyw.

W naszej dzisiejszej rozmowie używamy dwóch terminów „ryzyko” i „niepewność” synonimicznie. Oba oznaczają „brak pewności”. Ale istnieje różnica między tymi dwoma pojęciami. Ryzyko można scharakteryzować jako stan, w którym decydent ma jedynie niedoskonałą wiedzę i niekompletne informacje, ale nadal jest w stanie przypisać oszacowania prawdopodobieństwa do możliwych wyników decyzji.

Oszacowania te mogą być subiektywnymi osądami lub mogą być wyprowadzone matematycznie z rozkładu prawdopodobieństwa. Niepewność to stan, w którym decydent nie ma nawet informacji, aby dokonać subiektywnej oceny prawdopodobieństwa.

To Frank Knight pierwszy rozróżniał ryzyko od niepewności. Ryzyko jest obiektywne, ale niepewność jest subiektywna; ryzyko można zmierzyć lub określić ilościowo, ale niepewność nie jest możliwa. Współczesna teoria decyzji opiera się na tym rozróżnieniu.

Zasadniczo do oszacowania prawdopodobieństwa wyników decyzji stosuje się dwa podejścia. Pierwszy ma charakter dedukcyjny i nosi nazwę pomiaru a priori; drugi oparty jest na statystycznej analizie danych i nazywa się a posteriori.

Dzięki metodzie Priori decydent jest w stanie oszacować prawdopodobieństwo bez przeprowadzania eksperymentu lub analizy w świecie rzeczywistym. Na przykład wiemy, że jeśli podrzucimy bezstronną monetę, nastąpi jeden z dwóch równie prawdopodobnych wyników (tj. Głowa lub ogon), a prawdopodobieństwo każdego wyniku zostanie z góry określone.

Pomiar prawdopodobieństwa a posteriori opiera się na założeniu, że przeszłość jest prawdziwym reprezentantem (przewodnikiem) przyszłości. Na przykład firmy ubezpieczeniowe często sprawdzają dane historyczne w celu ustalenia prawdopodobieństwa, że ​​typowy dwudziestopięcioletni mężczyzna umrze, odniesie wypadek samochodowy lub poniesie straty pożarowe.

Zatem implikuje to, że chociaż nie są w stanie przewidzieć prawdopodobieństwa, że ​​konkretna osoba ulegnie wypadkowi, mogą przewidzieć, ile osób w danej grupie wiekowej może mieć wypadek, a następnie odpowiednio ustalić swoje poziomy składki.

Natomiast niepewność oznacza, że ​​prawdopodobieństwa różnych wyników są nieznane i nie można ich oszacować. W dużej mierze z powodu tych dwóch cech podejmowanie decyzji w niepewnym otoczeniu wymaga bardziej subiektywnej oceny.

Niepewność nie wydaje się sugerować, że decydent nie ma żadnej wiedzy. Zamiast tego sugeruje, że nie ma logicznego ani spójnego podejścia do przypisywania prawdopodobieństw możliwym wynikom.

Niektóre cechy charakterystyczne problemu decyzyjnego :

Wszystkie problemy związane z decyzjami biznesowymi mają pewne wspólne cechy.

Stanowią one nie tylko formalny opis problemu, ale także strukturę niezbędną do rozwiązania:

1. Decydent

2. Alternatywne kierunki działania (strategie)

3. Wydarzenia lub wyniki

4. Konsekwencje lub wypłaty.

Aby zilustrować te wspólne cechy problemu decyzyjnego, możemy zacząć od prostego przykładu z prawdziwego życia. Załóżmy, że jesteś kierownikiem ds. Zapasów w Nowym Jorku w Kalkucie, która sprzedaje męskie sukienki. Twoja firma nie jest producentem sukienek. To tylko sklep detaliczny sprzedający gotowe ubrania. Musisz zdecydować, ile męskich koszulek zamówić w sezonie letnim.

Ich producent narzucił ci warunek: musisz zamówić partie po 100 sztuk. Jeśli zamówisz tylko 100 koszulek, koszt to Rs. 10 za koszulę, jeśli zamówiono 200 lub więcej, koszt wynosi Rs. 9 na koszulę; a jeśli zamówionych zostanie 300 lub więcej koszul, koszt to Rs. 8, 50.

Wyniki badania rynku dostarczają informacji, że cena sprzedaży wyniesie Rs. 12 oraz że możliwe poziomy sprzedaży to 100, 150 lub 200 jednostek. Nie można jednak przypisać żadnego oszacowania prawdopodobieństwa do alternatywnych poziomów popytu lub sprzedaży.

Jeśli jakikolwiek T-shirt pozostanie niesprzedany w okresie letnim, można go zutylizować za połowę ceny w zimie. Menedżer ds. Marketingu uważa również, że utrata wartości firmy wynosi 50 pensów za każdą koszulkę, którą konsumenci chcą kupić w twoim sklepie, ale nie mogą tego zrobić z powodu nieodpowiednich zapasów.

Nie można czekać przez jakiś czas na zbadanie natury (lub określić poziom) popytu, ani nie można złożyć więcej niż jednego zamówienia. Tak więc panuje sytuacja całkowitej niepewności.

W naszym przykładzie decydentem jest kierownik magazynu, który musi zdecydować, ile koszulek zamówić w obliczu niepewnego popytu. Trzy alternatywne strategie to zamówienie 100 koszulek (A1), 200 (A2) lub 300 (A3).

Stany natury (które są zewnętrzne i poza kontrolą kierownika magazynu) są zdarzeniami, w tym przypadku są to trzy poziomy popytu: 100 (D 1 ), 150 (D 2 ) lub 200 (D 3 ). Ponieważ kierownik ds. Zapasów nie wie, które zdarzenia wystąpią, jest on zmuszony podjąć decyzję w obliczu niepewnych wyników.

Konsekwencjami są miary powiązania korzyści netto lub wypłaty (nagrody) z każdym poziomem popytu. Konkretna konsekwencja lub wynik zależy nie tylko od podjętej decyzji (A1, A2 lub A3), ale także od zdarzenia (D1, D2 lub D3), które ma miejsce.

Oznacza to, że każda kombinacja decyzji lub działania i zdarzenia wiąże się z konsekwencją lub wynikiem. Konsekwencje te są ogólnie podsumowane w macierzy wypłat.

Matryca wypłat :

Matryca wypłat jest niezbędnym narzędziem podejmowania decyzji. Jest to dobry sposób na podsumowanie interakcji różnych alternatywnych akcji i wydarzeń. Możemy zatem powiedzieć, że matryca wypłat zapewnia decydentowi ilościowe miary wypłaty dla każdej możliwej konsekwencji i każdej rozważanej alternatywy.

Dodatnia wypłata oznacza zysk, a ujemna - strata. W przypadku zapasów koszulek i problemu z zamówieniem macierz wypłat przedstawiono w tabeli 8.1

Jeśli przyszłe zdarzenie, które nastąpi, można z całą pewnością przewidzieć, decydent po prostu spojrzy w dół kolumny i wybierze optymalną decyzję. Gdyby na przykład wiadomo było na pewno, że popyt wyniesie 150 koszulek, decydent zamówi 200, aby zmaksymalizować swoją wypłatę.

Ponieważ jednak decydent nie ma żadnej wiedzy o tym, które zdarzenie (stan natury) nastąpi lub jaka jest szansa na wystąpienie określonego zdarzenia, stoi on w obliczu całkowitej niepewności.

Warunki podejmowania decyzji w warunkach niepewności :

Możemy teraz wykorzystać tę matrycę wypłat do zbadania charakteru i skuteczności różnych kryteriów podejmowania decyzji w warunkach niepewności.

Cztery główne kryteria oparte w całości na metodzie macierzy wypłat to:

(1) Maximin (Wald),

(2) Maximax,

(3) indeks alfa Hurwicza oraz

(4) Minimax żałuje (Savage).

W sytuacjach, w których decydent jest skłonny przypisać subiektywne prawdopodobieństwa możliwym wynikom, pozostałe dwa kryteria to

za. Laplace (Bayes ') i

b. Maksymalizacja wartości oczekiwanej.

Można zauważyć, że po wprowadzeniu subiektywnych prawdopodobieństw rozróżnienie między ryzykiem a niepewnością zaciera się.

1. Maximin :

Kryterium maksimina (lub Walda) jest często nazywane kryterium pesymizmu. Opiera się na przekonaniu, że natura jest nieuprzejma, a zatem decydent powinien określić najgorszy możliwy wynik dla każdego z działań i wybrać taki, który daje najlepsze z najgorszych (maksymalnych) wyników. Oznacza to, że decydent powinien wybrać najlepsze z najgorszych.

W naszym przykładzie z T-shirtami minimalne wypłaty związane z każdą z akcji są przedstawione poniżej:

Jeśli decydent jest pesymistą i zakłada, że ​​natura zawsze będzie drobiazgowa i nieżyczliwa, optymalną decyzją byłoby zamówienie 100 koszulek, ponieważ to działanie maksymalizuje minimalną wypłatę. Kryterium ma zatem charakter konserwatywny i jest odpowiednie dla firm, których przetrwanie jest zagrożone z powodu strat.

2. Maximax :

Dokładnie odwrotnym kryterium jest kryterium maksimum. Jest znane jako kryterium optymizmu, ponieważ opiera się na założeniu, że natura jest życzliwa (życzliwa). Zatem to kryterium jest odpowiednie dla tych, którzy są szczególnie ryzykowni (osoby podejmujące ekstremalne ryzyko).

W przeciwieństwie do kryterium maksiminy, maksymax oznacza wybór alternatywy, która jest „najlepsza z najlepszych”. Jest to równoznaczne z zakładaniem z ogromnym optymizmem, że zawsze będzie możliwy najlepszy możliwy wynik.

W naszym przykładzie najlepszy możliwy wynik, biorąc pod uwagę każdy z poziomów popytu, jest następujący:

Decydent postanowiłby więc zamówić 200 jednostek, ponieważ oferuje to maksymalną możliwą wypłatę.

3. Indeks alfa Hurwicza :

Kryterium alfa Hurwicza ma na celu osiągnięcie pragmatycznego kompromisu między dwoma skrajnymi kryteriami przedstawionymi powyżej. Nacisk kładziony jest na indeks oparty na wyprowadzeniu współczynnika znanego jako współczynnik optymizmu.

Tutaj decydent bierze pod uwagę zarówno maksymalną, jak i minimalną wypłatę z każdego działania i waży te ekstremalne wyniki zgodnie z subiektywnymi ocenami optymizmu lub pesymizmu.

Jeśli na przykład założymy, że decydent ma współczynnik 0, 25 dla określonego zestawu działań, implikacja jest jasna. Domyślnie przypisał prawdopodobieństwo wystąpienia 0, 25 do maksymalnej wypłaty i 0, 75 do minimalnej wypłaty.

Zasadniczo wartość wykonania określonego działania można ustalić według następującego indeksu:

H i = αCmax + (1 - α) C min (8, 1)

Decydent wybierze wtedy tę opcję, która da maksymalną wartość Hi. Równanie (8.1) wskazuje, że im bardziej optymistyczny jest podejmujący decyzję, tym większa będzie wartość H i i odwrotnie. Wartość alfa (a) równa 0, 5 oznacza, że ​​decydent nie jest ani optymistą, ani pesymistą.

Wyniki zastosowania kryterium Hurwicza w równaniu. (8.1) przy założeniu, że wartość alfa wynosi 0, 25, przedstawiono poniżej:

Zatem decydent wybrałby A1, tj. Zamówił 100 koszulek. Główną wadą tego kryterium decyzyjnego jest jednak przypisanie prawdopodobieństwa stanom optymizmu i pesymizmu.

4. Minimax Regret :

Minimalny żal został zaproponowany przez Savage. Kryterium to sugeruje, że po podjęciu decyzji i odnotowaniu wyniku, decydent może odczuwać żal, ponieważ do tej pory wie, jakie zdarzenie miało miejsce, i być może życzy sobie, aby wybrał lepszą alternatywę. Zatem to kryterium sugeruje, że decydent powinien spróbować zminimalizować swój maksymalny żal.

Implikacja jest taka, że ​​decydent opracuje macierz żalu (utrata szansy), a następnie zastosuje regułę minimax, aby wybrać akcję. Żal definiuje się jako różnicę między faktyczną wypłatą a oczekiwaną spłatą, tj. Wypłatą, która zostałaby uzyskana, gdyby decydent wiedział, jakie zdarzenie nastąpi.

Konwersja macierzy wypłat na macierz żalu jest bardzo łatwa. Wszystko, co musimy zrobić, to odjąć każdy wpis w macierzy wypłat od największego wpisu w jego kolumnie.

Jest oczywiste, że największy wpis w każdej kolumnie będzie miał zerowy żal. Implikacja jest taka, że ​​gdyby decydent rzeczywiście wybrał to działanie, nie doświadczyłby żalu (to znaczy żadnej utraty szansy). Tabela 8.2 przedstawia macierz żalu za problem z zapasem koszulek.

Wartość żalu w tabeli 8.2 przedstawia różnicę w wartości między tym, co uzyskuje się dla danego działania i danego zdarzenia, a tym, co można uzyskać, gdyby się wcześniej dowiedzieć, że dane zdarzenie jest w rzeczywistości faktycznym wydarzeniem. Na przykład, jeśli zamówionych jest 100 koszulek, a popyt wynosi 150 sztuk, żałuje Rs. 125, jako Rs. 300 (Rs. 125 więcej) można otrzymać, zamawiając 200 jednostek.

Tak więc, jeśli decydent wiedziałby, że popyt wyniesie 150 koszulek, jego optymalną decyzją byłoby zamówienie 200 koszulek; gdyby zamówił tylko 100 T-shirtów, straciłby szansę na Rs. 125. Pozostałe wpisy w macierzy żalu oblicza się według tej samej procedury, tj. Przez porównanie optymalnej decyzji z innymi możliwościami.

Maksymalne wartości żalu dla każdej akcji lub akcji są przedstawione poniżej:

Najmniejszy możliwy żal (lub minimalna strata szansy) zostałby poniesiony przez zamówienie 200 jednostek. Jeśli pierwotna tabela wypłat jest podana w kategoriach strat lub kosztów, decydent wybierze najmniejszą stratę dla każdego zdarzenia i odejmie tę wartość od każdego wpisu wiersza.

za. Kryterium Laplace'a (Bayesa) :

Kryterium Laplace'a niewystarczającego powodu różni się od kryterium żalu minimax tym, że wiąże się z zastosowaniem prawdopodobieństw, to znaczy, jeśli nie jesteśmy pewni, które zdarzenie nastąpi, możemy założyć (poprawnie lub niepoprawnie), że wszystkie stany (poziomy popytu) ) są jednakowo prawdopodobne, a następnie przypisują takie samo prawdopodobieństwo każdemu ze zdarzeń, tzn. zakładamy, że każde zdarzenie jest jednakowo prawdopodobne.

Te przypisania prawdopodobieństwa mogą być następnie wykorzystane do obliczenia oczekiwanej wypłaty dla każdej akcji i wyboru tej akcji z maksymalną (najmniejszą) spodziewaną wypłatą (stratą). W przykładzie z koszulką prawdopodobieństwo przypisane każdemu z trzech zdarzeń wynosiłoby 0, 33, a oczekiwana wartość pieniężna (EMV) wynosiłaby

Dlatego zgodnie z kryterium Laplace'a decydent zamawia 200 jednostek, ponieważ ma najwyższą oczekiwaną wartość. Kryterium to jest jednak krytykowane na tej podstawie, że założenie o równie prawdopodobnych zdarzeniach może być nieprawidłowe i użytkownik tego kryterium musi wziąć pod uwagę podstawową zasadność tego założenia.

b. Maksymalizacja oczekiwanej wartości :

To kryterium opiera się również na przypisaniu prawdopodobieństw. Nie przyjęto jednak założenia, że ​​każde zdarzenie jest jednakowo prawdopodobne. Zamiast tego analityk dokonuje bardziej krytycznej oceny przed przypisaniem subiektywnych prawdopodobieństw każdemu zdarzeniu. Przypisując subiektywne prawdopodobieństwa, decydent w istocie przekształca niepewną sytuację w sytuację ryzyka.

Załóżmy na przykład, że kierownik ds. Zapasów i kierownik ds. Marketingu osiągają konsensus, że prawdopodobne prawdopodobieństwa dla tych różnych stanów natury to: sprzedaj 100 jednostek, 0, 5; sprzedać 150 sztuk, 0, 3; i sprzedać 200 sztuk, 0, 2. Ponieważ zdarzenia wzajemnie się wykluczają, suma ich prawdopodobieństw wynosi 1.

Na podstawie tego oszacowania prawdopodobieństwa oczekiwaną wypłatę można obliczyć w następujący sposób:

A 1 (100) = 0, 5 (Rs. 200) + 0, 3 (Rs. 175) + 0, 2 (Rs. 150) (8, 5)

= Rs. 182, 50

A 2 (200) = 0, 5 (0) + 0, 3 (Rs. 300) + 0, 2 (Rs. 600) (8, 6)

= Rs. 210, 00

A 3 (100) = 0, 5 (Rs. 150) + 0, 3 (Rs. 150) + 0, 2 (Rs. 450) (8, 7)

= Rs. 60, 00

Dlatego, stosując kryterium maksymalizacji wartości oczekiwanej, kierownik magazynu wybierze A2, tj. Zamówi 200 jednostek.

Przydatnym rozszerzeniem kryterium wartości oczekiwanej jest kryterium oczekiwanej straty szansy (EOL). Różni się od EMV w tym sensie, że wymaga użycia macierzy żalu.

W naszym przykładzie oczekiwane straty alternatywne można obliczyć jako:

EOL (A 1 ) = 0, 5 (0) + 0, 3 (Rs. 125) + 0, 2 (Rs. 450) (8, 8)

= Rs. 127, 50

EOL (A 2 ) = 0, 5 (Rs. 200) + 0, 3 (0) + 0, 2 (0) (8, 9)

= Rs. 100, 00

EOL (A 3 ) = 0, 5 (Rs. 350) + 0, 3 (Rs. 150) + 0, 2 (Rs. 150) (8, 10)

= Rs. 250, 00

Kryterium EOL prowadzi nas do przyjęcia minimalnego EOL, który w przykładzie z koszulką to zamówienie 200 sztuk.

Podsumowanie :

Wyniki zastosowania sześciu kryteriów w naszym przykładzie z T-shirtami podano w tabeli 8.3. Oczywiste jest, że nie ma doskonałej zbieżności decyzji, chociaż A 2 jest dominująca. W ostatecznej analizie kierownik magazynu może łatwo wyrzucić opcję A 3, ale nadal musi ponosić ciężar wyboru A1 lub A2 w obliczu niepewnego popytu.

Oczekiwana wartość doskonałej informacji (EVPI) :

Tak długo nacisk kładziony był na wybór alternatywy na podstawie informacji posiadanych obecnie przez decydenta. W większości rzeczywistych sytuacji decydent ma możliwość zebrania dodatkowych informacji przed podjęciem decyzji.

Racjonalnemu decydentowi wartość informacji można potraktować jako różnicę między tym, jaka byłaby wypłata przy obecnie dostępnych informacjach, a wypłatą, która zostałaby uzyskana, gdyby z całą pewnością wiedział o wyniku przed podjęciem decyzji .

Krótko mówiąc, wartość doskonałej informacji to różnica między maksymalnym zyskiem w określonym środowisku a maksymalnym zyskiem w niepewnym otoczeniu.

W naszym przykładzie z koszulką, EMV w warunkach niepewności dla optymalnej decyzji o zamówieniu 200 jednostek to Rs. 210. Aby obliczyć EMV w warunkach pewności, zaczynamy od założenia, że ​​decydent wybrał opcję o największej wypłacie dla każdej z alternatyw.

Na przykład, jeśli kierownik magazynu wiedziałby przed podjęciem decyzji, że faktyczne zapotrzebowanie będzie wynosić 100 jednostek, optymalną decyzją byłoby zamówienie 100 jednostek z wypłatą Rs. 200; jeśli popyt miałby wynosić 150 jednostek, składałby zamówienie na 200 jednostek z wypłatą Rs. 300, a gdyby popyt wyniósł 200 jednostek, zamówiłby 200, a wypłatą byłoby Rs. 600

Aby obliczyć oczekiwaną wartość doskonałej informacji, po prostu stosujemy te same prawdopodobieństwa, które zostały użyte w obliczeniach EMV do tych niektórych wypłat:

Oczekiwany zysk z pewnością

= 0, 5 (Rs. 200) + 0, 3 (Rs. 300) + 0, 2 (Rs. 600)

= Rs. 310 (8, 11)

Dlatego w naszym przykładzie oczekiwaną wartość doskonałej informacji należy obliczyć w następujący sposób:

EMV w warunkach pewności = Rs. 310

EMV w warunkach niepewności = Rs. 210

Oczekiwana wartość doskonałej informacji = Rs. 100

Zatem kierownik magazynu wie, że maksymalna kwota, którą zapłaciłby za idealne przewidywanie popytu, to Rs. 100. Zapłacenie więcej za doskonałą informację niż strata, która wynikałaby z braku tej informacji (niepewności), byłaby irracjonalna.

Jednak w praktyce gromadzenie doskonałych informacji jest praktycznie niemożliwe. Jednak obliczenie jego wartości jest niezwykle przydatne dla menedżera. Na przykład, jeśli uważa, że ​​prawdopodobieństwo, że dodatkowe informacje będą prawidłowe, wynosi 0, 3, wartość tych informacji wynosiłaby Rs. 30 (Rs. 100 x 0, 3).

Podstawową kwestią, na którą należy tutaj zwrócić uwagę, jest to, że zapewniają one decydentowi procedurę oceny korzyści wynikających z uzyskania dodatkowych informacji i porównania ich z kosztami tych informacji.

Analiza wrażliwości :

Jedną z głównych wad stosowania EMV, EOL lub EVPI jest metoda stosowana do przypisywania prawdopodobieństw do zdarzeń. W szczególności menedżerowie mogą powiedzieć: „Wydaje mi się, że prawdopodobieństwo wystąpienia tego zdarzenia wynosi od 0, 3 do 0, 5”. W tych okolicznościach analiza wrażliwości często przynosi owoce, ponieważ stanowi miarę wpływu przypisania prawdopodobieństwa na decyzję.

Załóżmy, że nasz kierownik ds. Zapasów uzyskał inny zestaw oszacowań prawdopodobieństwa dla trzech poziomów zapotrzebowania na koszulki - to znaczy prawdopodobieństwo wynosi 0, 2 dla 100, 0, 3 dla 150 i 0, 5 dla 200 koszulek. Na podstawie tych prawdopodobieństw oczekiwana wartość trzech działań (rzędu 100, 200 lub 300) będzie wynosić Rs. 167, 50, Rs. 390 i Rs. Odpowiednio 240.

Optymalna decyzja byłaby nadal taka sama, a mianowicie zamówienie 200 jednostek; dlatego decyzja kierownika nie jest bardzo wrażliwa na zmiany przypisań prawdopodobieństwa. Ma to strategiczne znaczenie zarówno w zmniejszaniu lęku związanego z decyzją, jak i w mierzeniu potrzeby uzyskania dodatkowych informacji.

Dodatkowe przykłady:

Przykład 1

Załóżmy, że masz następującą macierz wypłat:

Wybierz optymalną akcję, stosując maximin, maximax, Hurwicz (= 0, 3), minimax regret i

Kryteria Laplace'a. Porównaj swój wybór pod każdym kryterium.

Przykład 2:

Kierownik marketingu musi określić, w którym z dwóch regionów należy wprowadzić nowy produkt. Poziom sprzedaży można scharakteryzować jako wysoki, średni lub niski. Szacuje, że prawdopodobieństwa związane z każdym z tych wyników wynoszą odpowiednio 0, 25, 0, 50 i 0, 25.

Macierz wypłat została skonstruowana w następujący sposób:

Wykorzystując EMV jako kryterium, w którym z dwóch regionów należy wprowadzić produkt?

Rozwiązanie:

EMV (A 1 ) = 0, 25 (40 000) + 0, 50 (30 000) + 0, 25 (20 000)

= Rs. 30 000

EMV (A 2 ) = 0, 25 (70 000) + 0, 50 (20 000) + 0, 25 (0)

= Rs. 27.500

Wybierz A 1

Przykład 3:

Z poniższej macierzy wypłat problemu decyzyjnego wynika, że ​​strategia A zostanie wybrana według kryterium Bayesa, strategia B według kryterium maksymyminy, C według Hurwicza α (dla α <1/2), a D według kryterium żalu minimax:

Przykład 5

Rozważ hipotetyczną macierz wypłat 4 x 6 reprezentującą maksymalizujący problem decydenta w obliczu całkowitej niepewności. Znajdź swoją optymalną strategię, biorąc pod uwagę, że (a) jest on częściowo optymistą (kryterium Hurwicza, ze współczynnikiem optymizmu 60%), (b) jest ekstremalnym pesymistą (kryterium Savage'a) oraz (c) jest subiektywistą (Laplace'a) kryterium).

Ponieważ ma najwyższą wypłatę, decydent wybrałby A4.

Jeśli zostanie spełnione kryterium minimax, osoba podejmująca decyzję ponownie wybierze A4.

Ponieważ pierwsza decyzja (A1) ma najwyższą oczekiwaną wartość, zostanie podjęta.

Środowisko decyzyjne w ramach analizy ryzyka :

W tym miejscu dokonaliśmy rozróżnienia między ryzykiem a niepewnością. Przypomnijmy, że ryzyko charakteryzuje się stanem, w którym decydent ma tylko niedoskonałe informacje o środowisku decyzyjnym, tj. Wpływ wszystkich dostępnych alternatyw. Ale decydent nadal jest w stanie przypisać oszacowania prawdopodobieństwa do możliwych wyników decyzji.

Szacunki te są subiektywnymi osądami lub mogą wynikać z teoretycznego rozkładu prawdopodobieństwa. Niepewność odnosi się do stanu, w którym decydentowi brakuje nawet informacji, aby przypisać subiektywne prawdopodobieństwa.

Rozróżnienia dokonał po raz pierwszy FH Knight, który zauważył, że ryzyko jest obiektywne, ale niepewność subiektywna. Jednak te dwa terminy są często używane zamiennie, co oznacza po prostu „brak pewności”.

Należy jednak zauważyć, że zastosowanie subiektywnych prawdopodobieństw zmniejszyło znaczenie rozróżnienia między ryzykiem a niepewnością. Innymi słowy, przypisując subiektywne prawdopodobieństwa problemom decyzyjnym, podejmowanie decyzji w warunkach niepewności można łatwo przekształcić w analizę ryzyka.

ja. Traktowanie ryzyka w analizie ekonomicznej :

Analiza ryzyka obejmuje sytuację, w której znane są prawdopodobieństwa związane z każdą z wypłat.

Istnieją dwa alternatywne sposoby wyprowadzenia tych prawdopodobieństw:

(a) poprzez analizę wzorców historycznych lub

(b) Przez odniesienie do teoretycznego rozkładu prawdopodobieństwa (takiego jak rozkład dwumianowy, rozkład Poissona lub rozkład normalny).

Analiza ryzyka oparta jest na koncepcji zmiennej losowej. Zmienna losowa to dowolna zmienna, której wartość jest niepewna, to znaczy, której wartość podlega zmienności probabilistycznej.

Na przykład, kiedy rzuca się kostką, pojawiająca się liczba jest zmienną losową. Cena herbaty w przyszłym tygodniu może być również losowa ze względu na nieprzewidziane zmiany podaży i popytu. Teraz wartości, które może przyjąć zmienna losowa, mogą nie być jednakowo prawdopodobne (tj. Zdarzenia o równym prawdopodobieństwie).

Z tego powodu należy przyjrzeć się rozkładowi prawdopodobieństwa zmiennej losowej, która jest listą możliwych wyników wraz z powiązanymi prawdopodobieństwami tych wyników.

W przypadku rzutu kostką rozkład prawdopodobieństwa jest następujący:

Tutaj pozwalamy X oznaczać liczbę na powierzchni matrycy, a P (X) reprezentuje prawdopodobieństwo tego wyniku. W takim przypadku sześć możliwych wyników jest jednakowo prawdopodobne (tj. Każdy z nich jest zdarzeniem równoważnym).

Oczekiwana wartość :

Ważną cechą zmiennej losowej jest jej oczekiwana wartość lub średnia. Przypomnijmy, że oczekiwana wartość jest średnią ważoną możliwych wyników, gdzie wagi są obiektywnymi prawdopodobieństwami możliwych wyników.

Oczekiwana wartość (oznaczona przez E) wyniku rzutu rzetelną kością wynosi:

Podstawowym kryterium decyzyjnym w środowisku charakteryzującym się ryzykiem jest kryterium wartości oczekiwanej (E).

Kryterium można po prostu określić jako:

gdzie X odnoszą się do wypłat z każdego zdarzenia i prawdopodobieństw związanych z każdą z wypłat. Pojęcie to można teraz zilustrować. Załóżmy, że mamy następującą macierz wypłat (tabela 8.4). Tabela 8.5 przedstawia odpowiednie prawdopodobieństwa dla każdego ze zdarzeń i powiązane oczekiwane wartości.

Jeśli decydent analizuje oczekiwane wartości każdego z działań, dochodzi do decyzji wyboru opcji, która ma najwyższą oczekiwaną wartość, tj. Opcji 2 w tym przykładzie.

Jednak trudność związana z kryterium oczekiwanej wartości polega na tym, że na jego podstawie nie zawsze można podjąć jednoznaczną decyzję. Jeśli na przykład prawdopodobieństwa lub wypłaty zostały zmienione w taki sposób, że A2 i A3 miały taką samą oczekiwaną wartość Rs. 504, 50, decydentowi trudno byłoby zmierzyć stopień ryzyka związanego z każdym działaniem, a tym samym podjąć jednoznaczną decyzję. W takiej sytuacji należy wypróbować pewne kryterium, aby ustalić względną miarę ryzyka.

ii. Pomiar ryzyka :

Kryterium oczekiwanej wartości pieniężnej (EMV) bez wątpienia dostarcza decydentom niezbędnych i użytecznych informacji. Jednak jego główną wadą jest to, że może ukryć obecność wyjątkowo wysokich potencjalnych strat lub wyjątkowo atrakcyjnych potencjalnych zysków. To prawda, że ​​oczekiwana wartość jest średnią matematyczną średnią rozkładu prawdopodobieństwa, który starannie podsumowuje cały rozkład wyników.

To po prostu wyjaśnia, dlaczego osoba podejmująca decyzje, która podejmuje decyzje wyłącznie na podstawie oczekiwanej wartości, prawdopodobnie będzie dokonywać wyborów niezgodnych z jego psychologicznymi preferencjami dotyczącymi podejmowania ryzyka. Gdy decyzje opierają się na kryterium EMV, opiera się ono domyślnie na założeniu, że decydent jest w stanie wytrzymać krótkoterminowe wahania i jest stałym uczestnikiem porównywalnych problemów decyzyjnych EMV.

Jednak dla własnego przetrwania decydenci zwykle wybierają kierunek działania, który ma zapewnić satysfakcjonujący zwrot, pod warunkiem zaakceptowania pewnego stopnia (poziomu) ryzyka.

Przy obecnym stanie wiedzy najbardziej użytecznym sposobem pomiaru stopnia ryzyka z perspektywy decydenta jest charakter rozkładu prawdopodobieństwa, a ściślej jego rozkład lub rozproszenie w stosunku do średniej.

W rzeczywistości im mniej rozproszony jest rozkład prawdopodobieństwa możliwych wyników, tym mniejszy stopień ryzyka każdej decyzji. Innymi słowy, im bliżej wartości wszystkich możliwych wyników do wartości oczekiwanej, tym mniej ryzykowny będzie wybór. Ryc. 8.1 ilustruje tę obserwację.

Tutaj, dla uproszczenia, rozważamy tylko dwa rozkłady prawdopodobieństwa. Każda alternatywa daje taką samą wypłatę lub EMV Rs. 1200.

Jednak rozkład możliwych wyników jest bardziej skoncentrowany wokół tej oczekiwanej korzyści dla alternatywy A niż dla alternatywy B, tj. Dla B jest on bardziej rozłożony wokół E (V). Zatem zgodnie z naszym kryterium alternatywa A byłaby traktowana jako mniej ryzykowna niż alternatywa B.

Zatem nawet jeśli dwie alternatywy mają ten sam EMV, decydent wybrałby opcję mającą najmniejszą dyspersję (lub maksymalne stężenie). Studenci z pewnym doświadczeniem statystycznym wiedzą, że najprostszym miernikiem rozproszenia możliwych wyników wokół średniej (tj. Wartości oczekiwanej) jest odchylenie standardowe rozkładu prawdopodobieństwa.

Wyraża się to jako:

Ilustrujemy tę koncepcję w tabeli 8.6 poniżej:

Jeśli przyjmiemy proste kryterium EMV, pobieżne spojrzenie sprawi, że projekt B wydaje się najlepszym wyborem. Jednak dokładniejsza analiza przepływów pieniężnych ujawnia również, że projekt A ma niewielką oczekiwaną wartość, ale jednocześnie wykazuje mniejszą zmienność i według naszej oceny wydaje się mniej ryzykowny.

Umieszczając wartości przepływów pieniężnych (X), wartości oczekiwanej (EMV) i przypisując prawdopodobieństwo z tabeli 8.6 do równania (8.13), jesteśmy w stanie oszacować to ryzyko. Wyniki naszych obliczeń przedstawiono w tabeli 8.7.

Po prostu obliczamy odchylenie standardowe dla projektu A i B jako pierwiastek kwadratowy wariancji σ A 2 i σ B 2. W ten sposób otrzymujemy σ A = Rs. 547, 7 dla projektu A i σ B = Rs. 3197.3 dla projektu B. Zatem projekt B ma wyższy EMV, ale jest ryzykowny, ponieważ ma wyższe odchylenie standardowe. Innymi słowy, nawet jeśli zwroty z projektu B są średnio wyższe niż zwroty z projektu A, ten pierwszy wykazuje większą zmienność. W związku z tym wiąże się to z większym ryzykiem.

Jeśli jednak dwa projekty lub alternatywy mają znacznie różne oczekiwane wartości pieniężne, możemy zastosować odchylenie standardowe, aby zmierzyć względne ryzyko dwóch projektów. Załóżmy, że projekt A ma wartość EMV Rs. 500 000 i standardowe odchylenie Rs. 500, podczas gdy projekt B ma wartość EMV Rs. 100 000 i SD tylko Rs. 200

W takiej sytuacji nie możemy tak łatwo porównać dwóch projektów za pomocą standardowej miary odchylenia. Tutaj często stosuje się nową miarę ryzyka względnego, znaną jako współczynnik zmienności lub wskaźnik ryzyka względnego.

Jest to wyrażone jako:

W przypadku dwóch lub więcej projektów (alternatywnych) o nierównych kosztach lub korzyściach (wypłatach) CV jest niewątpliwie preferowaną miarą względnego ryzyka. W naszym przykładzie współczynniki zmienności dla projektów A i B wynoszą odpowiednio 0, 001 i 0, 002.

Zatem, zgodnie z naszym kryterium, projekt A jest mniej ryzykowny niż projekt b. Z tabeli 8.7 możemy obliczyć CV dla projektu A i B. Dla projektu A jest to 0, 183, a dla projektu B - 0, 297. Oznacza to po prostu, że projekt b charakteryzuje się większym stopniem ryzyka niż projekt A.

Subiektywne prawdopodobieństwo :

Tak długo, że ograniczaliśmy się do rozważań na temat ryzyka obejmujących obiektywne prawdopodobieństwa. Takie obiektywne prawdopodobieństwo określa się w kategoriach względnej częstotliwości. W rzeczywistości prawdopodobieństwem wystąpienia zdarzenia jest względna częstotliwość jego występowania. Tę koncepcję prawdopodobieństwa uważa się za obiektywną w tym sensie, że wartości można wyznaczyć eksperymentalnie, jak w przypadku rzutu monetą 10 razy lub rzutu rzetelną kostką 100 razy.

Jednak w niektórych przypadkach względna częstotliwość (znana również jako klasyczna) interpretacja prawdopodobieństwa nie działa, ponieważ powtarzane próby nie są możliwe. Można na przykład zapytać, jakie jest prawdopodobieństwo pomyślnego wprowadzenia nowego śniadania (np. Maggie).

Ponieważ zachodzą ciągłe zmiany warunków rynkowych oraz liczby (asortymentu) konkurencyjnych (konkurencyjnych) produktów, nie można powtórzyć eksperymentu w tych samych warunkach setki razy. In such situations the decision-maker has to assign probabilities on the basis of his own belief in the likelihood of a future event. These probabilities are called subjective probabilities.

The decision-maker thus attaches his best estimate of the 'true' probability to each possible outcome. In reaching decisions he makes use of these subjective probabilities in precisely the same way the objective (or relative frequency) probabilities would be used if they were available.

iii. Profit Planning under Risk and Uncertainty :

In traditional economic theory it is assumed that the firm's objective is to maximise its profits under conditions of certainty. However, the real commercial world is characterized by uncertainty.

The presence of uncertainty upsets the profit- maximization objective. Let us consider a simple competitive market where the demand (average revenue curve) faced by a seller is a horizontal straight line. The implication is that the firm is a price-maker. It can sell as much as it likes at the prevailing market price. Now let us relax the assumption.

Suppose the horizontal demand curve facing a competitive firm moves up and down in a random (unsystematic) fashion. The implication is that the price that the firm faces is not stable. Rather it is a random variable. In Fig. 8.2 we show the likelihood of a particular price on a given day by the height of the bell-shaped curve.

The fact that the curve is highest for prices very close to the average or expected price P indicates that these prices are most likely. Contrarily, abnormally high or exceptionally low prices are possible but unlikely.

Fig. 8.2 makes one thing clear at least: when demand is random, the actual price is subject to a probability distribution. On average, the price will be equal to the mean price of P. Since price is random, profit will be random, too.

As another example, let us consider the following discrete probability distribution of prices.

It is not possible to know in advance the actual price for tomorrow. But we can calculate the expected price which is

P = 5(0.08)-t 6(0.14) + 7(0.18) + 8(0.20) + 9(0.18) + 10(0.12) + 11(0.08) + 12(0.02)

= Rs. 8, 04

This is the average price which is arrived at by multiplying each possible price by the probability of its occurrence and adding up the results.

Random Profit :

Now we have a random price for the firm's output. It is further assumed that the manager must specify the quantity of output before he observes the actual price that consumers will pay for the commodity. Such things often happen in reality and managers have to face such uncertain situations. For example, farmers face considerable uncertainty about the price they will receive in October for a crop planted in July.

Similarly, producers of new fashion garments and new model wrist watches must often produce a considerable quantity before they are able to know consumers' reaction to their products. For simplicity, we assume that the product is perishable. So the manager has to sell all the output rather than store some of it for future sales.

Since profit is total revenue (= price x quantity) less total cost of producing the required quantity, profit is also a function of the random price. Consequently, profit is also random.

Since profit is a random variable, the concept of maximum profit becomes meaningless. It is because one cannot maximize something which one cannot control. If profit maximization does not appear to be a sensible goal, one has to search out or identify another objective function for the firm.

Such a new objective function has to take account of two factors:

(1) The firm's attitude toward risk and

(2) The manager's perceptions of the likelihood of various outcomes.

It is gratifying to note that the expected utility approach to decision problems under risk accommodates both factors and provides a logical way to arrive at decisions.

iv. Expected Utility Theory and Risk Aversion :

In the context of decision problems whose uncertain possible outcomes constitute rupee payments with known probabilities of occurrence, it has been observed by many that a simple preference for higher rupee amounts is not sufficient to explain the choices (that is, decisions) made by various individuals.

The classic example, known as the St. Petersburg Paradox, and formulated by the famous mathematician, Daniel Bernoulli, about 250 years ago, illustrates a dilemma. Bernoulli observed that gamblers did not respond to the expected rupee prices in games of chances. Instead, he suggested that they responded to the utility that the prizes might produce.

The paradox consists of an unbiased coin (ie, a coin in which the probability of head or tail is 1/2) which is tossed repeatedly until the first head appears. The player is supposed to receive or win 2n rupees as soon as the first head appears on the n-th toss.

Now the relevant question here is: how much should the player be ready to pay to take part in this gamble (ie, how much should he be willing to wager)? To answer this question we have to find out the EMV of such a gamble which is:

Here EMV is the sum of an infinite arithmetic series of 1's.

Thus if we go by the EMV criterion we can assert that the gambler (player in our example) will be ready to wager everything he owns in return for the chance to receive 2n rupees.

However, in real life most people prefer to play safe and avoid risk. Therefore they would decide not to participate in this type of gamble characterized by highly uncertain outcome against an unlimited payment (that has to be made if the gamble is accepted).

Thus, the prediction is that actual monetary values of the possible outcomes of the gamble fail to reflect the true preference of a representative individual for these outcomes. So the maximization of EMV criterion is not a reliable guide in predicting the strategic action or strategic choice of an individual in a given decision environment.

The same conclusion is also reached from other examples of behaviour, such as diversification of investment portfolio as also the simultaneous purchases of lottery tickets (that is gambling) and insurance.

By rejecting maximization of EMV criterion as a valid guide for decision-making in situations involving risk, Von Neuman and Oskar Morgenstern developed an alternative framework (based on expected utilities of the outcomes) which can be utilized for decision-making in a situation of risk.

They have proved conclusively that the Maximization of expected utility criterion, which is a preferable alternative to EMV criterion, yields decisions that are in accord with the true preference of the individual (the player) provided one condition is satisfied: he is able to assess a consistent set of utilities over the possible outcomes in the problem.

They calculate expected utility in the same way expected value is calculated by multiplying the utility of each outcome by its probability of occurrence, and then summing up the whole thing, thus:

This criterion apparently appears to be very effective. But a number of difficulties crop up when we try to implement it. Firstly, in a large organization, whose utility function has to be used remains an open question. Secondly, in case of large private firms characterized by separation of ownership from management whose utility function — the managers' or shareholders' — has to be used is another question.

Suppose we decide to use the utility functions of shareholders. Since different shareholders are involved and they have different utility functions, which are not directly comparable, it is virtually impossible to arrive at a group utility function.

Secondly, complex problems arise in measuring the utility function of an individual. Yet with the present state of knowledge, the utility function is the only tool available for incorporating the decision maker's true preferences for the outcomes of the problem into the decision-making framework.

Ilustracja :

We may now see how to utilize the new criterion, ie, the maximization of expected utility criterion in arriving at decisions under risk. Suppose an entrepreneur has developed a new product which is yet to be put into the market. He is considering whether or not to make long-term investment for introducing the product in the market.

Suppose on the basis of intensive market survey and research it is discovered that 20% of such product met with success in the past and the remainder (80%) were failures. It is estimated that the cost of producing and marketing a batch of the product will be Rs. 4000.

If we assume that a sub-contractor can be engaged to manufacture the product, there is no need for any investment in production facilities. It is also estimated that if the marketing effort is successful, a profit of Rs. 16, 000 will result.

We additionally assume that it is very easy to copy the product. Therefore, sooner or later, intensive competition will restrict the profitable sales of the product. Thus the initial amount which is produced can be profitably sold.

On the contrary, if the product is not initially successful and there is total failure of the marketing effort, the maximum amount of loss the entrepreneur has to incur will be Rs. 4, 000, ie, the cost of production and marketing.

We may now summarize the basic characteristics of the decision problem in the following payoff matrix.

It is quite obvious that the action or decision — 'Do not invest in the product' — results in a zero return or pay-off regardless of the decision- environment, ie, the state of nature. In the row below the matrix we show the probability of occurrence of each state of nature.

The EMV of the decision to 'invest in the product' is:

EMV 1 = Rs. 16, 000 x .20 + (Rs. -4000) x .80 = Re. 0.

On the contrary, for the alternative decision 'do not invest' it is:

EMV 2 = 0 x .20 + 0 x .80 = Re. 0.

Thus, in this simple example, it is very difficult for the entrepreneur to arrive at a decision on the basis of EMV criterion. Since EMV is the same under two alternative actions the decision-maker would remain indifferent between them.

Now we may incorporate the utility function of the entrepreneur into the decision-making framework and see if it enables the entrepreneur to express his risk preference. His risk reference can be measured by the nature of his utility function.

Suppose, in the first case, that the entrepreneur has the utility function, shown in Fig. 8.3.

The utility function is characterized by diminishing marginal utility of money. Recall that the word 'margin' always refers to anything extra. Therefore, marginal utility measures the satisfaction the individual receives from a small increase in his stock of wealth.

Here we use the three terms 'wealth', 'money' and 'return' synonymously. The slope of the utility function at any point measures marginal utility.

In reality we observe that as an individual's stock of wealth (money) increases, every additional unit of wealth gives him gradually less and less extra satisfaction (utility). From this emerges the diminishing marginal utility hypothesis. Here, in Fig. 8.3 the slope of the utility function falls as the decision-maker's stock of wealth increases. This corroborates the diminishing marginal utility hypothesis.

The implication is simple: as his wealth increases, the individual receives less and less extra utility (satisfaction) from each extra rupee that he receives. Now by using equation (15) we can calculate expected utility, based on the utility function of Fig. 8.3.

For the decision to 'invest in the product' it is:

E(U 1 ) = U(Rs. 16, 000) x .20 + U(Rs. -4000) x .80

= .375 x .20 + (-.50) x .80

= – .325

For the alternative action, ie, for the decision 'Do not invest' it is:

E(U 2 ) = U(0) x .20 (0) x .80

= 0 x .20 + 0 x .80 = 0

Thus the decision 'Do not invest' has a higher expected utility. Therefore, by using the maximization of expected utility criterion, the rational entrepreneur would decide against the project. He would decide not to invest in the new product. Thus diminishing marginal utility of money leads directly to risk aversion. In term of EMV this investment is an example of fair gamble since its EMV is zero.

On the basis of differences in attitude toward risk, decision-makers are classified into three categories: risk-averter, risk-indifferent and risk- lover. In our example the investor is a risk-averter.

A risk-averter is one who, because of diminishing marginal utility of money, expresses a definite preference for not undertaking a fair investment or fair gamble, such as the one illustrated above. It is also possible for the risk-averter to be reluctant to undertake investments having positive EMVs.

Now let us consider a second situation — an exactly opposite one where the entrepreneur has the utility function, characterized by increasing marginal utility of money. Here the slope of the utility function is increasing as the individual's wealth increases.

This reveals the increasing marginal utility hypothesis The implication of this hypothesis is simple enough: as the individual's wealth increases, he receives more extra utility from each extra rupee that he receives.

On the basis of the data which accompany the utility function of Fig. 8.4, the expected utility of the decision to 'Invest in the Product' is:

E(U 1 ) = U(Rs. 16, 000) x .20 + U(Rs. – 4, 000) x .80

= .65 x .20 + (- .10) x .80 = 0.5

It is zero for the alternative action. 'Do not Invest', ie, E(U 2 ) = 0. (Try to guess why.) Thus the optimal decision would be to accept the project, ie, invest in the product.

A decision-maker who, because of an increasing marginal utility of money, exhibits a definite preference for undertaking actuarially fair investments such as this one is called a risk-lover. It is because he loves to take risk. It is also possible for a risk- lover to be eager and willing to undertake investments having negative EMVs.

Finally, let us consider a situation in which the entrepreneur has a linear utility function, as shown in Fig. 8.5.

Here the utility function shows constant marginal utility of money. The implication is that as the individual's wealth increases he receives the same extra utility from each additional rupee that he receives. It is left as an exercise to the reader to demonstrate that the expected utilities of both the decisions: 'investment in the product' and 'do not invest' are zero.

Therefore, the entrepreneur with a linear utility function would show indifference to the two alternative actions when attempting to maximise expected utility. He would, therefore, be called a risk-indifferent (neutral) decision-maker. It is interesting to note that this is the same decision (that is, indifference) as was obtained in the first part with the EMV criterion.

It is also possible to show that for a risk- neutral individual, the maximization of EMV criterion will generally yield the same decisions as the maximization of expected utility criterion.

The implication of this statement for decision-making purposes is that if the decision-maker feels that he is having a linear utility function over the range of outcomes in a decision problem, there is hardly any need to go through the whole complex process of seeking to derive his utility function of money.

In such a situation, taking the action with the highest EMV will surely lead to decisions that are quite in accord with the true preferences of the decision-maker.

In short, the decision-maker's attitude toward risk determines the shape of his utility function and assists the choice of alternative in a decision problem involving risk.

v. Sequential Decision Making: Decision Tree Analysis :

A new technique of decision making under risk consists of using tree diagrams or decision trees. A decision tree is used for sequential decision-making. Suppose Mr. X is a decision-maker with a utility function shown in Fig. 8.6 who has an income of Rs. 15, 000, and he is given the following offer.

Mr. X's friend Mr. Y will flip a coin. If a head appears in the first toss Mr. X owes Mr. Y Rs. 5, 000; if a tail appears, Mr. Y will pay Mr. X Rs. 6000. Mr. X's EMV from playing this gamble is Rs. 500 (a 50% chance of losing Rs. 5, 000 supported by a 50% chance of winning Rs. 6, 000).

It is worthwhile for Mr. X to decline the bet if the reduction in utility from losing Rs. 5, 000 is greater than the increase in utility from winning Rs. 6000. Table 8.9 and Fig. 8.6 summaries mathematically Mr. X's decision, ie, not to take the coin flipping bet, in two different ways.

In Table 8.6, a comparison of the EMV of 'Take Bet' with 'Decline Bet', shows that the Rs. 500 expected gain from taking the bet is surely better than the zero rupee gain from declining the bet. If we bring into focus the concept of utility, the expected utility loss of 25 from betting is obviously inferior to the no-change outcome.

Fig. 8.7 presents the same information using decision trees.

The tree in panel (a) considers monetary gain and loss; the tree in panel (b) shows utility gain and loss. The initial branch of both the trees — upper and lower, represents bet or decline bet decision, with each subsequent branch representing the possible outcomes and the associated probabilities.

After setting forth the probabilities, we calculate the expected monetary values — which are shown in the brackets. We can now compare the figures in brackets — (Rs. 500) and (Re. 0) — in the upper tree with the expected utility figures — (-0.25) and (0) — in the lower tree.

The major advantage of the decision tree approach is its brevity. In fact, it is easier to comprehend 'trees' easily than tables when we move to more realistic business situations involving various decisions (branches). Moreover, decision trees highlight the sequential nature of decision-making.

Przykład:

Choosing a Technique of Production:

Suppose Mr. Ram is a project manager and has been entrusted with the responsibility of developing a new circuit board which is an important component of a colour TV.

The budgetary limit of the project has been set at Rs. 400, 000 and Mr. Ram has been given six months time to complete the project. The R&D engineers have succeeded in identifying two approaches, one utilizing conventional materials and another using a newly developed chip.

It has been estimated by the marketing department that if the circuit board is produced with conventional materials, the company will make a profit of Rs. 478, 300. The newer computer chip offers the twin advantages of simplicity and reliability when compared with the use of conventional materials.

There will also be a cost saving of Rs. 150, 000. Additionally, the new computer chip would generate additional profits of Rs. 121, 700 over and above the cost savings. Thus the total payoff from using the new technology chip would be equal to Rs. 750, 000 (=Rs. 478, 300 + Rs. 150, 000+ Rs. 121, 700).

Given sufficient time and money, either of the two methods could be developed to specifications. However, with fixed budget and limited time, Mr. Ram arrives at the estimate that there is a 30% chance that the circuit board made from the conventional materials will not be up to the mark and a 50% chance that the newer technology using the chip will fail to meet specifications.

The end result of the project involves the construction of a functional prototype. The prototype would cost Rs. 60, 000 if all conventional materials are used and Rs. 100, 000 if the newly designed chip is used. So the crucial decision problem facing Mr. Ram is one of choosing which of the two designs should be used in constructing the prototype model.

Since the financial limit has been set at Rs. 400, 000, Mr. Ram has the option of simultaneously pursing the development of both prototypes.

It is because the total cost is Rs. 160, 000 which is much less than the budgetary limit of Rs. 400, 000. However, if both the prototypes are developed, an additional labour cost of Rs.107, 000 has to be incurred. Fig. 8.8 presents the decision tree associated both the problem faced by Mr. Ram.

If the maximization of EMV criterion is followed, the decision would be to build both prototypes because the expected profits of Rs. 325, 410 would far exceed the profit of any one of the two.

However, in order to measure the riskiness of the three alternatives, Mr. Ram computes the standard deviation of each of the alternatives. Moreover, he computes coefficient of variation to make a comparison of the degree of riskiness of the three actions.

The results of such computations are presented in Table 8.10 below:

It is clear that construction of the prototype using conventional materials (A 1 ) is the least risky alternative. But its payoff is also the lowest of the three. Hence Mr. Ram is faced with a perplexing dilemma — a trade-off between risk and profitability. Larger return implies higher risk.

vi. Adjusting the Valuation Model for Risk :

Diminishing marginal utility of money leads directly to risk aversion. Such risk aversion is reflected in the valuation model used by investors to determine the worth of a firm. Thus, if a firm succeeds in taking an action that increases its risk level, this action affects its value.

The model was introduced as a way of discounting future income stream to the present:

Where R t = sales revenue from Q t units;

C t = cost of producing Q t units;

Π t = profit;

r = interest rate; i

t = time period under consideration; t equal to zero in base (current) year and n at the end of n time periods.

The model, it may be recalled, states that the value of a firm to its investors is the discounted present worth of future profits or income. Under uncertain conditions the profits in the numerator, R t – C t = P t, are really the expected value of the profits each year.

If the firm has to choose between alternative methods of operation, one with high expected profits and high risk and another with smaller expected profits and lower risk, will the higher expected profits be sufficient to neutralize the high degree of risk involved in it? If so, the riskier alternative will surely be preferred; otherwise the low-risk project or method of operation should be accepted.

We devoted ourselves to developing a broad understanding of the economic aspects of the NPV equation. We noted that an economic organization seeks to maximize its prospects for economic survival by maximizing NPV.

Now we shall interpret our valuation model of the firm in terms of the expected utility approach. The switch-over from utility theory to the NPV model is a simple exercise. Because of the diminishing marginal utility of money most decision-makers (eg, investors) are risk averters.

Now, in the context of our NPV model we may assert that risk aversion is reflected in the fact that any decision that a firm makes will surely change its risk level — the degree of risk to which it is exposed. The change in the risk level because of the decision taken by the firm will have a direct bearing on its NPV level. Now an important question is: how to adjust our basic valuation model for risk?

There are two ways of adjusting the model in the light of reality, ie, :

(1) Using the concept of certainty equivalent and

(2) Using risk- adjusted discount rate.

Decision-Making Environment under Certainty Equivalents :

The first method of dealing with risk it to replace the expected net income figures (R t — C t ) in the NPV equation with their certainty equivalents.

We may now illustrate the concept. Suppose Mr. Hari has purchased a lottery ticket that has a 50-50 chance of paying Rs. 1, 000 or Re. 0. Thus the lottery is equivalent to tossing an unbiased coin. If head appears, Mr. Hari will get Rs. 1, 000 and if tail appears he gets nothing. If we adopt the classical definition of probability as the limit of relative frequency, we know one thing at least.

If Mr. Hari tosses the coin again and again, on an average, he would win (get a head) half the time and lose (get a tail) half the time. Thus Mr. Hari's average or expected payoff in this game is Rs. 500 per ticket. This much is known to us.

But what we do not know as yet is; how much would Mr. Hari be willing to sell his ticket for? To put the question in a different language, what is the lowest offer that Mr. Hari is willing to accept — Rs. 300, Rs. 500 or Rs. 600? The cash offer he would accept in order to be induced to part with his ticket is the certainty equivalent (CE) of the lottery.

If, for instance, he would accept Rs. 300 (CE = Rs. 300), then his risk premium (RP) can be defined as:

RP = EMV- CE

Rs. 200 = Rs. 500 – Rs. 300 (8.18)

In such a situation Mr. Hari is willing to pay Rs. 200 risk premium to quit (sell the lottery ticket). Since his CE is less than his EMV, the risk premium is positive and he would be classified as a risk-averter. Had his CE exactly equalled the EMV of Rs. 500, he would be described as risk- neutral (indifferent).

Alternatively, he may be a risk-lover, in which case he would not exit the game (part with the lottery ticket) unless he received more than Rs. 500. On the basis of this simple example, we may define CE of a decision as “the sum of money, available with certainty, that would cause the decision-maker to be indifferent between accepting the certain sum of money and making a decision (or taking the gamble)”.

It is obvious that CE sum equal to the EMV implies risk indifference. Likewise, a CE sum greater than the EMV indicates risk. Therefore, an individual's attitude toward risk is directly reflected in the CE adjustment factor.

It is calculated as the ratio of the equivalent certain rupees sum (ie, the certain sum whose utility is equal to the expected utility of the risky alternative) divided by the expected rupee outcome from the risky alternative as equation (8.18) shows.

α = Equivalent Certain Sum/Expected Risky Sum

Let us suppose that Z t represents the CE for net income (R t – C t ) in period t.

Now the NPV equation may be rewritten as:

The calculation of the certainty equivalent (Z t ) could be done on a purely subjective basis by the individual carrying out the financial analysis, or the analyst could make use of a formal estimate (based on actual information and an appropriate model). If we substitute the value of Z t in equation (8.19), the NPV calculation would reflect a crude adjustment for risk.

It may be emphasized at this stage that the process of adjusting for time and risk in the NP V model is a complex and controversial task. In fact, even the order (risk first or time first) in which one adjusts the cash flow (numerator in the NPV model) can have a major impact on the final results.

The most obvious defect of the CE approach, outlined above, is that it requires the specification of a utility function so that risk premium can be numerically measured or quantified. However, one way possible of overcoming this problem is to go through an alternative and better known risk adjustment process — the risk adjusted discount rate method.

The Risk Adjusted Discounted Rate (RADR):

The RADR approach is very easy to use and therefore very popular. In order to understand the concept let us go back to equation (8.16). Recall that the CE approach to adjusting our basic valuation model to risk operated on the numerator (R t — C t ). By contrast, the RADR method focuses on the denominator.

To be more specific, the RADR procedure replaces the discount rate with a new term p, which is the sum of the initial discount rate and risk factor k. That is p = r + k. If, for instance, r equals 10% and k equals 3%, the new risk-adjusted discount rate becomes 13%.

Increasing the discount rate implies deflating NPV. Since NPV analysis uses a compounding factor in the denominator (1+r)t the incorporation of a risk adjustment factor in the denominator to deflate future values, heightens this compounding.

To illustrate, a discount rate of 10% becomes a discount factor of 1.46 [= (1.10)4] by the end of four years, and the 13% rate becomes 1.63 [=(1.13)4].

However, there is hardly any justification for the assumption of a compounding risk factor, rather than a risk difference of just three percentage points (1.13 – 1.10) or a ratio of (1.63 – 1.46=) 1.116 by the end of four years. Thus, the risk differential increases with the number of years in the project.

This particular observation has important implications for project planning and long-term investment decision. If, for example, there are two investment projects with the same degree of risk but differing time horizons, then the use of a common discount rate (such as 13%, in our example) is sure to have a distorting influence for the longer project.

The reason is simple enough: the risk factor will continue to compound in later years. However, the RADR is not without its defects. Its major defect is that, as one number, the discount rate is used to combine the effects of both risk and the time value of money.

The RADR is often made us of in capital budgeting (ie, long-term investment) decisions. If this factor is brought into consideration, future cash flows for each project are discounted at a rate, K*, which is based on the risk associated with the project. Fig. 8.9 illustrates the relationship between K* and project risk.

Here the r ƒ value denotes the risk-free rate, ie, the minimum acceptable rate of return from an investment project having certain cash flow streams. Fig. 8.9 makes one point clear at least: the greater the project risk the higher the rate used in discounting the project's cash flows.

Decision under Conflict and Game Theory :

So far we have considered only a single decision maker. The states of nature occur passively and independently of the strategies chosen. When opponents are involved, the opponents' strategies can be represented by the columns.

These will replace the states of nature and there will be as many columns as strategies. The two decision-makers will not choose their strategies independently. There will be interaction, the basis of which is conflict of interest.

Decision theory involving 2 or more decision makers is known as game theory. Games are classified according to number of players and degree of conflict of interest.

With complete conflict of interest the game is a zero-sum game. Most parlour games are of this type. A duopoly battle to capture a higher share of the market is another. If the conflict of interest is not complete, the game is called a non-zero sum game. With external economies, such games could arise.

Let us consider a decision problem facing two players. Both players wish to maximise their payoffs. Player A has 3 and player B has 4 strategies. For example, 3 multinationals want contracts in a Banana Republic. The first company could either bribe the present government, arranging a coup invasion. The second company has an extra option of getting a neighbouring country to attack. The payoffs are measured in terms of profit.

With a zero sum game, player A's gain is B's loss. Therefore a single matrix can represent both players payoffs. Payoff to B = – (Payoff to A).

If A chooses strategy A 1, B will try to maximise his own payoff (that is, minimise A's payoff). So B will choose B 2 . Similarly if A chooses A 2, B will choose B 3 . If A chooses A 3, B will chose B 1 . So the relevant payoffs for each strategy is the minimum for each now. A will maximise this and choose A 2 . This is nothing but the maximin criterion.

Whatever strategy B chooses, A will try to maximise his own pay-offs. So if B chooses B 1, A chooses A 1 and so on.

B will choose strategy B 3 . This minimises A's payoff and therefore maximises his own. So B chooses the minimax criterion. In this case the payoffs under minimax and maximin principles are the same and equal to 1.5. If this happens, such a value is called a saddle point. It is the solution to the game.

But even if no saddle point exists, a solution to any zero-sum-two person game will exist. The solution will be in terms of mixed strategies (where the specific strategy to be used is selected randomly with a pre-determined probability). The proof of this is known as the fundamental theorem of game theory.

It is sometimes difficult to get the exact utilities required to construct a payoff matrix. Ranked data are then often used. The two competitors may not have the same approximate utilities (with a negative sign). The two payoff matrices will be required. It will also be necessary to assume that each competitor can estimate the other's utility. It is the existence of such dissimilar utilities that cause non-zero-sum type of games.

It may also be that the opponent's utilities are not known at all: The decision problem would then have to be treated under uncertainty. Not knowing the opponent's utilities implies that the player has no idea at all about the possible choice of strategies that is equivalent to decision-making under uncertainty for a single decision-maker.

In terms of actual conditions a large number of problems is involved with states of nature. Even with situations involving antagonistic decision makers, this analysis is often not applicable under perfect competition.

The activities of a single entrepreneur will not then affect market conditions. But whenever a single firm controls a large share of the market, either with duopoly or oligopoly, game theory becomes important. Even monopoly can be represented as a game between a producer and seller.

 

Zostaw Swój Komentarz