content top

Modne koncepcje biznesowe czyli jak naprawdę powstają „błękitne oceany”

Modne koncepcje biznesowe czyli jak naprawdę powstają  „błękitne oceany”

business handObserwując pojawiające się mody w biznesie można zadać sobie pytanie czy należy zaliczyć do nich także strategię „Błękitnego oceanu” autorstwa panów W.Chan Kim i Renee Mauborgne. Koncepcja ta zdobyła dużą popularność. Jakie są źródła tego sukcesu? Czy można ją traktować jako receptę na sukces, albo przynajmniej zbiór narzędzi, które mogą być wykorzystywane dla jego osiągnięcia? Czy jest to raczej „produkt konsultingowy” który zdobył popularność dzięki zręczności marketingowej i powstałej modzie?

Trudno jednoznacznie odpowiedzieć na te pytania. Koncepcja strategii błękitnego oceanu ma wielu zwolenników, ale także wiele osób podchodzi do niej bardzo sceptycznie. Zwolennicy koncepcji chcą w niej widzieć receptę na sukces, przeciwnicy twierdzą, że opisuje ona w inny sposób to, co jest znane już od dawna.

Czym są błękitne oceany? Według autorów tego pojęcia to nieodkryte jeszcze obszary rynkowe, na których nie istnieją siły konkurencji. Piszą oni jednocześnie: „Na błękitnym oceanie to ty wymyślasz i tworzysz popyt i to ty oferujesz klientom milowy krok w wartości, jednocześnie optymalizując własne koszty”. Tak więc stawiają tezę, że możemy być siła sprawczą tworzącą ogromny popyt. Czy tak jest rzeczywiście?

Tak naprawdę błękitne oceany, o których piszą W.Chan Kim i Renee Mauborgne w swojej książce nie powstawały na skutek przyjętych przez menedżerów strategii i związanych z nimi działań. To nie oni byli ich twórcami. To nie oni sprawili, że powstały. Błękitne oceany to raczej zagospodarowane i wykorzystane istniejące już  „oceany popytu”. Potrzeby, które można określić tą metaforą wykształcały się wcześniej, przez długi czas przed wprowadzeniem na rynek danej usługi czy produktu, który zyskał wielką popularność. I to w sposób niekontrolowany w pełni przez nikogo, choć oczywiście wiele osób czy organizacji miało na tę kreację mniejszy czy większy wpływ. I co więcej – jak to widać na przykładach, ci co wypłynęli na te „oceany popytu” nie zdawali sobie do końca sprawy jak ogromna będzie rzesza ich klientów.

Tak więc tworzenie się „oceanów popytu” wiązało się (i może wiązać w przyszłości) ze zmianami technologicznymi czy społecznymi, które jednak powstają w sposób rozproszony i długotrwały. Tak było z rozwojem rynku samochodowego, komputerów osobistych itd. Tworzenie się „oceanów popytu” można niejako porównać do reakcji łańcuchowej, która wymaga pewnej masy krytycznej. Masowy rozwój komputerów osobistych był taką właśnie „reakcją łańcuchową” na bazie masy krytycznej, którą stanowiły pojedyncze technologie wytwarzania koniecznych do ich budowy części i oprogramowania.

„Oceany popytu” nie są jednak jedynie, a nawet przede wszystkim wynikiem nowych technologii. Te tylko sprawiają, że możliwe jest tworzenie się nowych w skali globalnej faktów społecznych, które możemy nazwać m.in. stylami życia. To nie Internet jako twór techniczny stworzył nowe „oceany popytu”. To nowy styl życia, dla powstania którego Internet był tylko warunkiem koniecznym. Ten styl życia nie przyszedł jednocześnie z powstaniem technicznych możliwości jakie daje Internet, a dopiero wtedy, gdy „masa krytyczna” przekroczyła pewne granice. Istotna jest nie sama technologia, a nowy sposób jej wykorzystania. Świadczy o tym chociażby krach giełdowy „zbyt wcześnie” powstałych firm, których oferta powstała w oparciu o technologię Internetu.

Analogiczne wnioski można wyciągnąć w stosunku do nowego stylu życia związanego z upowszechnieniem motoryzacji (przemieszczanie się, sposób spędzania wolnego czasu w tym wakacji, weekendów itd.) czy komputerów (nowy styl życia związany z nowymi formami rozrywki, gromadzeniem danych, przetwarzaniem informacji itd).

„Ocean popytu” (lub w mniejszej skali „morze popytu”) tym się różni w moim przekonaniu od pojęcia „błękitnego oceanu” w rozumieniu jego autorów, że ten pierwszy nie powstaje w sposób zaplanowany, a co najwyżej częściowo przewidywalny. Nie jest on wynikiem wymyślonej strategii, a może być jedynie przez tę strategię wykorzystany.

Firmy czy ich menedżerowie, o których piszą autorzy „Strategii Błękitnego Oceanu” potrafili wykorzystać szansę, która się im nadarzyła, potrafili „wpłynąć” na szerokie wody i tak „ustawić żagle”, aby sprzyjające wiatry poniosły ich do sukcesu. Ten sposób wykorzystania nadarzającej się szansy polegał m.in. na tym, że wymyślili sposób zaspokojenia potrzeb szerokiej rzeszy potencjalnych klientów w inny sposób niż konkurencja.

Koleją ważną wątpliwością jest to, czy prawdziwa jest teza, że na błękitnych oceanach nie istnieją siły konkurencji. Konkurencja bowiem istnieje zawsze, mniejsza lub większa, mniej lub bardziej spóźniona. Może tylko czasami nie można mówić o tym, że jest to konkurencja w danej branży, choćby dlatego, że wcześniej tej branży nie było – ale to tylko słowa. Istnieje natomiast konkurencja, która będzie chciała wykorzystać te nowo powstałe masowe potrzeby klientów, i to niekoniecznie w ten sam sposób co pionierzy danego produktu czy usługi. Nowy rynek rośnie w takim tempie, że wiele firm może się dzięki temu dynamicznie rozwijać niekoniecznie kosztem swoich konkurentów. Oczywiście do czasu. Tak było w przypadku branży komputerów osobistych.

Jednym z przykładów stworzenia błękitnego oceanu jakie prezentują w swojej książce W.Chan Kim i Renee Mauborgne jest komputer Apple stworzony przez Woźniaka i Jobsa. Przyjrzyjmy się temu przypadkowi. Czy rzeczywiście można powiedzieć, że wprowadzenie na rynek komputerów Apple było świadomym wykreowaniem błękitnego oceanu (masowego rynku na komputery osobiste)? Wydaje się, że taka teza jest jednak nadużyciem, dopasowaniem faktów do przyjętego przez siebie dogmatu.

Komputer Apple nie był pierwszym komputerem osobistym. Najczęściej palmę pierwszeństwa przyznaje się komputerowi ALTAIR 8800, którego sprzedano w latach 70-tych ok.10 tys. egzemplarzy (co uznawano za sukces rynkowy). Dużo większą popularność osiągnął jednak Apple II (mimo, że jego twórcy zakładali podobne wyniki sprzedaży) dzięki temu, że dołączono do niego klawiaturę i monitor oraz oprogramowanie w formie prostego arkusza kalkulacyjnego i edytora tekstu. Trudno uznać jednak, że ta innowacja była „innowacją wartości” o jakiej piszą autorzy strategii błękitnego oceanu, tym bardziej, że kolejny model Apple III był niejako zaprzeczeniem tego co zalecają W.Chan Kim i Renee Mauborgne, gdyż za udoskonalenia w tym modelu zażądano zaporowej jak się okazało ceny. Porażką rynkową był także stworzony przez Jobsa kolejny komputer LISA, właśnie głównie dlatego, że był skierowany na zbyt elitarny rynek (wysoka cena). Krokiem milowym dla powstania „oceanu popytu” dla komputerów osobistych było natomiast przyjęcie przez IBM we współpracy z niewielkim jeszcze Microsoftem polityki udzielania innym firmom licencji na produkcję podobnych maszyn. Ten fakt chyba najbardziej zdynamizował rozwój komputerów osobistych, stworzył wspomnianą przeze mnie wyżej „masę krytyczną”, lecz też trudno by było tę politykę uznać za przykład „innowacji wartości” w rozumieniu autorów strategii błękitnego oceanu.

A to właśnie „innowacja wartości” ma być podstawą tworzenia błękitnego oceanu. Pisali o niej W.Chan Kim i Renee Mauborgne jako o „kamieniu węgielnym swojej koncepcji”:

„Być może najważniejszą cechą strategii błękitnego oceanu jest to, że odrzuca ona podstawową doktrynę strategii tradycyjnej, która mówi, że trzeba szukać kompromisu między niskimi kosztami a wysoką wartością. Według tej tezy firmy mogą albo zaoferować klientom większą wartość po wyższych kosztach, albo niższą wartość po niższych kosztach.” Harvard Business Review „O strategii” Wydawnictwo ICAN 2012 rok

Czy krytyczne uwagi do tez autorów pojęcia błękitnego oceanu oznaczają, że ich książka jest bezwartościowa?  Niewątpliwie nie. Prezentowane w niej wskazówki, w tym „innowacja wartości”, mogą być dobrą podpowiedzią co do sposobu przeprowadzania analizy strategicznej. Faktycznie powszechna interpretacja typów strategii zdefiniowanych przez M. Portera (przywództwa kosztowego, wyróżniania się i koncentracji) prowadziła bowiem do przeświadczenia wielu menedżerów, że strategiczne wyróżnianie się musi wiązać się ze zmianami (produktu, usługi), które generują wyższe koszty i co za tym idzie wyższe ceny. „Innowacja wartości” zwraca natomiast uwagę, iż możliwe jest połączenie proponowanych przez M. Portera strategii przywództwa kosztowego i wyróżniania się poprzez uproszczenie oferowanych produktów i usług. Dobrą wskazówką analityczną jest także proponowana w książce o strategii błękitnego oceanu zasada „zredukuj, wzmocnij, wyeliminuj, stwórz” oraz graficzne jej odwzorowanie w postaci „kanwy strategii”. Przypominają nam one o fakcie, że ważnym elementem analizy strategicznej powinno być pytanie dotyczące tzw. kluczowych czynników konkurowania, to jest takich, które są uznawane za „dobre praktyki” w danej branży, gdyż może się okazać, że część z nich nie stanowi takich wartości dla klientów jakie im przypisujemy. Oczywiście szczególnie chodzi tu o takie czynniki, które tej wartości w znaczący sposób nie tworzą, a za to generują znaczne koszty.

Inną zaletą książki „Strategia błękitnego oceanu” jest podkreślenie, iż każda firma ma w większym lub mniejszym stopniu klientów, których autorzy książki nazywają „nie-klientami”. Są to m.in. osoby, które nie są zadowolone w różnym stopniu z dostępnej na rynku oferty i mogą być szansą na nawet znaczne poszerzenie kręgu naszych odbiorców – oczywiście jeśli lepiej dopasujemy naszą ofertę do ich potrzeb. Wskazanie na fakt istnienia grupy „nie-klientów” to także wskazówka skierowana do firm, które posiadając już duże grono odbiorców, powinny zadać sobie pytanie czy znaczna ich część nie jest tymi „nie-klientami”, którzy kupując dany produkt czy usługę rozglądają się za ofertą bardziej dopasowaną do ich potrzeb.

Wróćmy jednak do pytania czy koncepcja strategii błękitnego oceanu zyskała tak dużą popularność dzięki jej wartości merytorycznej, czy też głównie dzięki powstałej modzie. Moim zdaniem prawdziwa jest ta druga teza, jednak faktu tego nie można oceniać wyłącznie negatywnie, choćby ze względu na przytoczone wyżej argumenty. Dobrą wskazówką wywodzącą się z omawianej książki jest także zachęta do obserwacji tworzących się trendów, które mogą być początkiem powstania „oceanów popytu”.

Z drugiej strony obawiam się także, że wielu menedżerów zrozumiało zachętę do tworzenia błękitnych oceanów jako zachętę do kreowania różnych motywacji do zakupu produktów i usług z wykorzystywaniem technik manipulacji. Produktów i usług nie niosących za sobą rzeczywistych, trwałych wartości dla klientów a tworzonych z reguły przy wykorzystaniu niewiedzy potencjalnych odbiorców i „złudnych” nadziei. Oczywiście pod względem finansowym „stworzenie” w wyniku manipulacji motywacji do zakupu przyniosło i przynosi wielu firmom oczekiwane przez nie zyski, jednak raczej trudno zakładać, iż będą one miały charakter trwały. I że takie działania można uznać za budowanie trwałej przewagi konkurencyjnej, która powinna być rezultatem dobrej strategii.

więcej

Zasady w biznesie – czy można im wierzyć?

Zasady w biznesie – czy można im wierzyć?

Depositphotos_24106675_mJakimi zasadami kierować się w biznesie? Jakie wzorce czy teorie prowadzą do sukcesu, a jakie nie? Te pytania zadaje sobie wielu menedżerów. Cały czas powstaje wiele koncepcji dotyczących takich zasad. Ich autorzy przedstawiają je z reguły jako recepty na sukces, uzasadniając tę tezę wieloma przykładami. Czy rzeczywiście są one takimi receptami? Czy zawsze? A jeśli nie to kiedy? Jakie są ich wady i zalety?

Część z tych koncepcji zdobywa wielką popularność mierzoną ilością publikacji na ich temat na całym świecie, a także ilością wdrożeń zarówno w znanych światowych organizacjach jak i mniejszych przedsiębiorstwach (przynajmniej tych deklarowanych). Koncepcje te stają się produktami z własną marką handlową oferowanymi przez firmy doradcze, te małe i te największe i najbardziej znane. Trafiają także do programów nauczania na wyższych uczelniach.

Moja już ponad 30 letnia praktyka skłania mnie jednak do przeświadczenia, że niestety nie ma i nie będzie takich uniwersalnych zasad, które wystarczy poznać i zastosować aby odnieść sukces. Mogą one jednak pomóc w jego osiągnięciu, należy jedynie pamiętać, że wszelkiego rodzaju teorie winny być traktowane jako inspiracje, a nie gotowe do zastosowania recepty na sukces.

Na ogół popularność większości tego rodzaju koncepcji jest jak najbardziej zasłużona. Niestety wraz z ich upowszechnianiem pojawiają się też negatywne konsekwencje tej popularności. Skąd się one biorą? Otóż upowszechnienie każdej teorii wiąże się z jej uproszczeniem. Zanika kontekst jej powstania, przekaz na jej temat ogranicza się najczęściej do schematów, formuł, definicji czy wzorów. Zapomnieniu ulegają także założenia, paradygmaty, które nieodłącznie są związane z każdą teorią. Na ogół nie są wyraźnie formułowane przez jej autorów, a już zupełnie przemilczane są przez jej popularyzatorów. To oczywiste, lepiej sprzedają się koncepcje, które są przedstawiane jako świetne rozwiązania na każdą sytuację. Fakt ten powoduje także, iż w przekazie akademickim czy doradczym dotyczącym tych koncepcji brakuje często informacji na temat „ciemnych stron” danego zagadnienia. To z kolei powoduje, że bezrefleksyjne zastosowanie danej teorii, metody w pewnych sytuacjach prowadzi do absurdu, wprowadza w błąd nieświadomych wszystkich jej wad i ograniczeń odbiorców. Popularyzacja ogranicza się do komunikatu, że „tak to się robi”, bez odpowiedzi na pytania: dlaczego i w jakich sytuacjach taka zasada ma sens, a w jakich nie.

Przyjrzyjmy się w powyższym tezom w na przykładzie najbardziej popularnej i najczęściej stosowanej metodzie wyceny przedsiębiorstw – metodzie DCF. Stała się ona niewątpliwie standardem wśród metod wykorzystywanych wszędzie tam, gdzie oszacowanie wartości przedsiębiorstwa jest konieczne, choćby ze względu na potrzeby negocjacyjne fuzji i przejęć, procesów prywatyzacyjnych itp. Wyceny są wykonywane na ogół przez firmy doradcze, które przyjmują jednak do wyliczeń różnego rodzaju założenia, które mogą być łatwo podważone. Odbiorcy tych wycen często nie zdają sobie sprawy w jakim stopniu te przyjęte założenia wpływają na wynik końcowy.

Na wynik wyceny metodą DCF istotnie wpływa założony koszt kapitału własnego oraz przyjęty stopień wzrostu wolnych przepływów gotówkowych (FCF) po okresie prognozy – przy ich wyliczaniu niemal regułą jest przyjmowanie zasady, że „tak to się robi” opartej na daleko idących uproszczeniach w przyjętych założeniach.  Koszt kapitału własnego w teorii jest definiowany jako stopa zwrotu z inwestycji alternatywnych (na rynku kapitałowym) o takim samym ryzyku jak inwestycja dla której mamy wyliczyć ten koszt. Czy jednak dane historyczne indeksów giełdowych mogą być wiarygodnym punktem odniesienia do przyszłości, szczególnie, że bardzo często co najmniej wątpliwym jest założenie, że wyceniana firma jest podobna co do stopnia ryzyka inwestycyjnego do spółek giełdowych wchodzących w skład indeksu użytego do w/w wyliczeń?

Ponadto czy ryzyko inwestycji w dane przedsiębiorstwo jest takie same dla wszystkich potencjalnych kupujących? Porównajmy ryzyko inwestora spoza branży spółki przejmowanej z ryzykiem inwestora branżowego oferującego podobne co do rodzaju produkty, dla którego przejęcie jest efektywną drogą do poszerzenia wolumenu sprzedaży przy jednoczesnym wykorzystaniu efektów synergii kosztowej. Oczywistym jest, że w tym drugim przypadku ryzyko inwestycyjne jest znacznie mniejsze. Tezę taką potwierdza statystyka nieudanych procesów fuzji i przejęć.

Wątpliwości co do przyjmowanych założeń w metodzie DCF jest więcej. Dotyczą one chociażby tego, czy można przyjąć za bezpieczne kupowanie państwowych papierów wartościowych, szczególnie tych długoterminowych. Fakty jakie od jakiegoś czasu obserwujemy przeczą temu popularnemu założeniu. Niezależna od nas, często nieodpowiedzialna polityka finansowa niektórych zadłużających się państw pokazuje, że  emitowane przez nie obligacje czy bony skarbowe nie mogą być uznane jako bezpieczne. Oczywiście są różnice w tym względzie pomiędzy poszczególnymi krajami, np. w styczniu 2012 roku stopy zwrotu na niemieckie półroczne papiery skarbowe były ujemne. Znaczy to, że inwestorzy je kupujący uznali, że najważniejszym ich celem nie jest wysoka stopa zwrotu, a zminimalizowanie skali ew. strat w posiadanej gotówce.  W dzisiejszych czasach może też okazać się bezpieczniejszą inwestycja w dobrze zarządzane przedsiębiorstwo dostarczające na rynek niezbędnych czy bardzo przydatnych konsumentom produktów niż inwestycja w obligacje czy papiery skarbowe. Takie przedsiębiorstwo może bowiem ratować swoje „bogactwo”  poprzez wzrost cen wyrównujący spadek siły nabywczej gotówki w wyniku inflacji.

Warto sobie też uświadomić w jakim stopniu błąd w przyjętych założeniach wpływa na wynik końcowy, na przykład w wspomnianym wyżej określaniu wartości firmy metodą DCF. Przyjrzyjmy się symulacji wyceny firmy przy różnych założeniach dotyczących kosztu kapitału własnego i założonego wzrostu wolnych przepływów gotówkowych (FCF). Poniższa tabela prezentuje 5-cio letnią prognozę wyników przykładowej firmy. 

wycena metodą DCF - prognoza-page-001 (3)

Symulacja zaprezentowana w tabeli poniżej dotyczy różnych założonych poziomów premii za ryzyko przy dwóch różnych przyjętych stałych wzrostach wolnych przepływów gotówkowych po okresie prognozy. Założone wielkości są przypadkowe, jednak celem tu nie jest realna wycena, a pokazanie w jakim stopniu wynik ostateczny jest uzależniony od nawet niezbyt dużych zmian w założeniach.

wycena metodą DCF - symulacje

Jak widać z powyższych tabel przyjęcie założenia niższej premii za ryzyko tylko o 2 % powoduje, że wycena przedsiębiorstwa jest wyższa o ok. 50%. Oczywiście przy jeszcze większych różnicach w założeniach wynik ten zmienia się w sposób jeszcze bardziej radykalny.  Oczywiście przyjęty łączny koszt kapitału można traktować różnie – na przykład jako stopę zwrotu z faktycznie realnych alternatywnych inwestycji o analogicznym ryzyku. Tyle tylko, że w praktyce określenie zwrotu z realnych alternatyw jest mocno wątpliwa.

Można też przyjąć, iż koszt kapitału własnego to subiektywnie oczekiwana wartość nie mająca „twardych” podstaw w alternatywnych inwestycjach, tyle tylko, że w takim przypadku niższe oczekiwania mogą się przyczynić do akceptowania zbyt wysokiej ceny za akcje/udziały kupowanego przedsiębiorstwa. To spore ryzyko, które ukazuje w pełni swoją twarz przy nieudanych transakcjach fuzji czy przejęć wynikających ze zbyt optymistycznej wyceny przejmowanej firmy.

Ogromny wpływ na wynik końcowy wyceny ma także założenie co do poziomu prognozowanych przepływów gotówkowych po okresie prognozy.  W zależności od przyjętej premii za ryzyko wzrost założonej dynamiki z zera do trzech procent daje przyrost wyniku od 82% do 188%. Realne podstawy do przyjęcia takiej a nie innej wielkości są co najmniej wątpliwe.

Powyższe argumenty nie mają jednak za cel stwierdzenia, że metoda DCF nie powinna być stosowana – może ona być znakomitym sposobem porównywania różnych możliwości inwestycyjnych. Jej wyniki mogą stanowić także dobre narzędzia negocjacyjne. Moją intencją jest zwrócenie uwagi na fakt, że ma ona szereg słabych stron, które zbyt często są pomijane przez jej popularyzatorów, a szczególnie firmy doradcze, które sprzedają usługi wyceny przedsiębiorstw (czy te, gdzie wycena jest ważnym elementem np. przy doradztwie w procesach fuzji i przejęć). Niestety rzadko się spotyka konsultantów, którzy wyjaśniają w pełni wszelkie pozytywne i negatywne strony dokonanej wyceny oraz  że nie istnieje tak naprawdę coś takiego jak „obiektywna wycena przedsiębiorstwa”.

Pokazany przykład metody DCF jest tylko jednym z wielu przypadków, gdzie dają o sobie znać negatywne konsekwencje przyjmowanych uproszczeń w wykorzystywanych w praktyce biznesu koncepcji teoretycznych. Uproszczeń, które prowadzą do powstawania zasad, że „tak to się robi”  i stosowania ich bez głębszego zrozumienia praktycznej  istoty zagadnienia.

więcej

Dualizmy strategiczne.Tworzenie map strategii metodą „Green-Red”

Dualizmy strategiczne.Tworzenie map strategii metodą „Green-Red”

Depositphotos_8946673_m

Teoretycy i praktycy biznesu zgadzają się w większości, iż posiadanie dobrej strategii jest jednym z najważniejszych warunków osiągania trwałego sukcesu (przewagi konkurencyjnej). Dobra strategia to jednak nie wszystko, gdyż musi być ona jeszcze skutecznie wdrożona (zakomunikowana i przełożona na działania operacyjne). Do tego celu w praktyce biznesowej służy wiele narzędzi – do najbardziej znanych należą te wywodzące się z koncepcji autorstwa Roberta S. Kaplana i Davida P. Nortona: map strategii oraz strategicznej karty wyników.

Mapa strategii w graficzny sposób przedstawia najważniejsze czynniki (cele) i procesy opisujące daną strategię i zachodzące pomiędzy nimi relacje przyczynowo-skutkowe. Robert S. Kaplan i David P. Norton o budowaniu mapy strategii pisali jako o tworzeniu „logicznej struktury architektonicznej definiującej strategię przez określenie związków między akcjonariuszami, klientami, procesami i kompetencjami”. Autorzy w swojej książce „THE STARTEGY FOCUSED ORGANISATION – how balanced scorecard companies thrive in the new business environment” wydanej w roku 2001 piszą także: „Mapa strategii opisuje proces transformacji aktywów niematerialnych w materialne efekty finansowe. Stanowi ona podstawę do zarządzania strategią w gospodarce zdominowanej przez wiedzę”. Tak więc mapa strategii ma charakter syntetyczny i ogranicza się do najważniejszych kwestii strategicznych i zależności pomiędzy nimi. Jej autorzy wskazują, iż kwestie te powinny uwzględniać cztery perspektywy działalności przedsiębiorstwa: finansową, klienta, procesów wewnętrznych oraz uczenia się i rozwoju. W takich samych perspektywach Kaplan i Norton grupują mierniki stosowane w Strategicznej Karcie Wyników, która wiąże cele strategiczne z operacyjnymi i ich miernikami.

Mapa strategii w ujęciu klasycznym pokazuje jedynie pozytywny wpływ poszczególnych działań na osiąganie zaplanowanych celów strategicznych. W praktyce jednak niemal każde działanie, które z jednej strony pozytywnie wpływa na realizację naszej strategii jednocześnie niesie ze sobą także zagrożenia. Dążenie do realizacji jednego celu ma często destrukcyjny wpływ na inny kluczowy czynnik budowy wartości. Nie jest tak, że dane działanie (na poziomie strategicznym czy operacyjnym) ma ALBO DOBRY, ALBO ZŁY wpływ na osiąganie założonych celów „ostatecznych”, na przykład na budowanie wartości firmy dla akcjonariuszy. Z reguły każde działanie ma JEDNOCZEŚNIE DOBRY I ZŁY wpływ na te cele (mówiąc językiem logiki występuje tu koniunkcja a nie alternatywa). Pozostaje do rozstrzygnięcia (czy zaplanowania) naszych działań tak, aby wpływ pozytywny przeważał nad negatywnym. Przy planowaniu strategicznym koniecznym zatem wydaje się uwzględnienie wspomnianego wyżej dualizmu, i odpowiedź na pytania w jaki sposób i na co nasze działanie może wpłynąć pozytywnie, a na co negatywnie. I oczywiście w jakim mierzalnym stopniu.

Ten dualizm można łatwiej wyjaśnić na kilku prostych przykładach.

Jednym z głównych czynników strategii wzrostu wartości firmy dla akcjonariuszy jest wzrost sprzedaży. Często firmy żądają więc od swojej ekipy handlowej jej maksymalizacji w jak najkrótszym czasie (tworząc na przykład nie do końca przemyślane pro sprzedażowe systemy motywacyjne, np. prowizyjne), co jednak może prowadzić do destrukcji w zakresie innych kluczowych czynników sukcesu: dewaluacji marki, nadmiernego wzrostu należności, spadku rentowności itd. Nadmierna dostawa towarów np. do klientów biznesowych, którzy nie są w stanie ich sprzedać (a kupują je w nadmiernej ilości w wyniku stosowania przez sprzedawców różnych technik wywierania wpływu) prowadzi do pogarszania się wizerunku dostawcy – jego klienci czują się oszukani. Podobnie jest z odbiorcami końcowymi – Ci, widząc znaczną rozbieżność pomiędzy „obietnicą” zawartą w agresywnym marketingu a rzeczywistą wartością oferty, także czują się oszukani i fakt ten powoduje u nich m.in. znaczne obniżenie pozytywnego wizerunku marki tego rodzaju produktów. Opisane wyżej zagrożenie degradacji marki w wyniku nie do końca przemyślanych działań pro sprzedażowych jest tym większe, im bardziej rośnie rola mediów społecznościowych, które potrafią masowo upowszechnić negatywne opinie o produktach czy ich markach.

Groźne dla utrzymania przewagi konkurencyjnej poprzez strategię wyróżniania się lub koncentracji może być też dążenie do wzrostu sprzedaży poprzez rozszerzenie grupy docelowej. Często warunkiem koniecznym do takiego rozszerzenia jest obniżenie ceny, a co za tym idzie obniżenie wartości produktu czy usługi dla dotychczasowych bardziej wymagających odbiorców (choćby w wyniku zastosowanie tańszych materiałów). To prosta droga do dewaluacji marki oraz wpadnięcia w wir walki konkurencyjnej i wojny cenowej, która może przynieść czasowy czy nawet trwały wzrost sprzedaży, jednak przy jednoczesnym obniżeniu rentowności i łącznych przepływów gotówkowych, a to prowadzi do destrukcji wartości dla akcjonariuszy.

Rys. 1. Relacje przyczynowo-skutkowe związane z działaniami strategicznymi nastawionymi na wzrost sprzedaży. Fragment mapy strategi sporządzonej zgodnie z metodą „Green-Red”. Strzałki zielone na prezentowanym fragmencie mapy strategii pokazują pozytywny wpływ poszczególnych działań na założone cele, strzałki czerwone negatywny.

wzrost sprzedaży-page-001 (2)

Ważnym celem strategicznym bywa w przedsiębiorstwach obniżenie kosztów działalności na przykład poprzez standaryzację procedur, zwykle wymuszaną wdrażaniem systemów IT, które narzucają ich użytkownikom określony sposób działania, nie pozwalając na dowolność czy elastyczność.  Standaryzacja taka, jest wrogiem indywidualnego podejścia do klienta i w mniejszym czy większym stopniu powoduje jego niezadowolenie, co w konsekwencji niszczy pozytywny wizerunek firmy i przynajmniej w dłuższym okresie prowadzi do utraty klientów i spadku sprzedaży.

Ilustracją powyższego problemu może być moja „przygoda” z jednym z operatorów telefonii komórkowej. Firma ta błędnie naliczyła opłatę za świadczone mi usługi. Jej pracownik z działu reklamacji oświadczył telefonicznie, że zostanie mi wystawiona faktura korygująca, jednak ze względu na obowiązujące procedury, może to być zrobione dopiero w następnym miesiącu. Dowiedziałem się także, że w związku z tym powinienem zapłacić jedynie za niesporną część wystawionej faktury. Tak też zrobiłem. Za kilka dni jednak zablokowano mi numer za nieuregulowaną w pełni płatność. Interweniując w tej sprawie dowiedziałem się, że to system komputerowy automatycznie blokuje połączenia, a to, że zaległość powstała z winy operatora nie jest uwzględniane. Dowiedziałem się także, że nie da się tu nic zrobić, gdyż procedury nie uwzględniają wyjątków, a ludzie z obsługi klienta nie mają żadnych uprawnień, aby interweniować w takich czy podobnych przypadkach (przy okazji dowiedziałem się, że nie przewidują też możliwości mojego kontaktu z jakimś menedżerem, który maiłby stosowne kompetencje załatwienia tej nieprzewidzianej przez procedury i system informatyczny sprawy w sposób indywidualny). Na koniec nadmienię tylko, że takich wyłączeń przez system miałem jeszcze dwa, i że właśnie czekam na zakończenie umowy z tą firmą, aby się z nią pożegnać … Oczywiście system i procedury nie odnotują utraty klienta… Z drugiej jednak strony wdrożenie systemu było zapewne zgodne z celem strategicznym operatora w postaci obniżania kosztów operacyjnych. Nikt jednocześnie nie zastanowił się nad destrukcyjną konsekwencją realizacji tego rodzaju inwestycji.

Rys. 2. Relacje przyczynowo-skutkowe związane z standaryzacją procedur. Fragment mapy strategii sporządzonej zgodnie z metodą „Green-Red”.

inwestycje IT, procedury-page-001

W firmach produkcyjnych czy handlowych jednym z istotnych kierunków działań jest ograniczanie zapotrzebowania na kapitał obrotowy poprzez skracanie rotacji zapasów i należności. Ograniczanie poziomu stanów magazynowych i należności zwiększa przepływy gotówkowe w firmach a co za tym idzie kreuje wartość dla akcjonariuszy. Dążenie do minimalizacji zapasów (w tym znana zasada „just in time”) w praktyce jednak niesie za sobą dość duże ryzyko braków magazynowych, które z kolei mogą przynieść utraconą sprzedaż czy zaburzoną ciągłość produkcji. Warto tu podkreślić, iż utracona sprzedaż (marża) często nie jest wykazywana w standardowych sprawozdaniach finansowych więc jej destrukcyjny wpływ na wartość przedsiębiorstwa w praktyce często pozostaje niezauważony (nie zarządza się tego rodzaju ryzykiem). Podobna sytuacja występuje, gdy chcemy zmniejszyć zapotrzebowanie na gotówkę poprzez zmniejszenie rotacji należności (działanie takie zwiększa przepływy gotówkowe a zatem kreuje wartość dla akcjonariuszy). Długie terminy płatności stanowią jednak niewątpliwie wartość dla klienta, więc ich skracanie może skutkować zmniejszeniem sprzedaży czy poziomu uzyskiwanej marzy (jeśli np. za skrócenie terminów płatności oferujemy rabaty), co oczywiście wpływa destrukcyjnie na wartość firmy.

Rys. 3. Relacje przyczynowo-skutkowe związane z redukcją rotacji zapasów i należności.

zapasy należności-page-001

Przedstawione powyżej przykłady proponowanej przeze mnie metody tworzenia map strategii „Green-Red” (nazwałem ją tak od koloru strzałek) oczywiście nie prezentują problemu dualności związków przyczynowo skutkowych w pełnym zakresie, a tylko bardzo wycinkowo. Artykuł ma za zadanie jedynie przedstawić pewien sposób myślenia, a przede wszystkim być inspiracją do szerszych przemyśleń na poruszony temat.  Pamiętanie o dualności związków przyczynowo-skutkowych już na etapie budowania strategii (z wykorzystaniem do jej opisu i komunikacji map strategii) jest także bazą do zintegrowanego ze strategią  holistycznego zarządzania ryzykiem, a szczególnie w zakresie  identyfikacji jego źródeł.

Ograniczanie myślenia przy opisie związków przyczynowo-skutkowych składających się na naszą strategię  jedynie do tych, które przynoszą pozytywne efekty stwarza realne niebezpieczeństwo. iż te nie w pełni uświadomione zagrożenia zniwelują nasze wysiłki, a nasza nawet najlepsza strategia nie przyniesie spodziewanych efektów.

 

 

więcej
content top