Baza wiedzy  »  Cyfryzacja łańcucha dostaw  »  Znaczenie AI w prognozowaniu popytu – podcast Prosto o cyfryzacji

Znaczenie AI w prognozowaniu popytu – podcast Prosto o cyfryzacji

18 czerwca 2024 (Last updated: 24 września 2024)

Zastanawiasz się, jak wykorzystać AI w prognozowaniu popytu i zarządzaniu łańcuchem dostaw z użyciem standardów GS1? Zapraszamy na kolejny odcinek podcastu „Prosto o cyfryzacji“, którego gościem jest Maciej Kowalik Co-Founder & CEO w SMARTSTOCK.

Proszę zaakceptować pliki cookies z kategorii statystyki, marketing aby uzyskać dostęp do tego materiału.

Maciej Kowalik, prezes zarządu Smartstock sp. z o.o.: Bardzo mi miło, dziękuję za zaproszenie. 

Czym jest prognozowanie popytu? 

Prognozowanie popytu jest procesem, który ma jak najdokładniej przewidzieć, jak będą się sprzedawały produkty. Chodzi zarówno o najbliższy czas, czyli np. kolejne dni czy tygodnie, jak i prognozy długoterminowe, np. roczne.  

Generalnie prognozowanie popytu polega na tym, żeby na podstawie historii sprzedaży np. danego produktu w danym sklepie, czy danego produktu w kontekście danego klienta, spróbować przewidzieć, jak ta sprzedaż będzie wyglądać w kolejnych okresach.  

Bardzo ważna jest historia sprzedaży, ale nie tylko. Mamy szereg innych czynników, które wpływają na popyt. To m.in. sezonowość, dni kalendarzowe czy promocje. Z drugiej strony istotna jest wiedza rynkowa osób, które uczestniczą w procesie prognozowania. A zatem stawiamy prognozę statystyczną na podstawie algorytmów prognozowania popytu i wspieramy ją wiedzą rynkową ekspertów. 

Jak w prognozowaniu popytu może pomóc sztuczna inteligencja? 

Zwykle, żeby dobrać optymalne metody prognozowania popytu, zaczynamy właśnie od danych i od zastosowania algorytmów sztucznej inteligencji. Optymalne, to znaczy takie, które na podstawie dostępnych danych dają prognozy o najwyższej trafności, albo inaczej patrząc – o najniższym błędzie prognozy.  

Jeżeli chodzi o to, czym różni się sztuczna inteligencja od tradycyjnych metod prognozowania popytu, to podzielę się swoim doświadczeniem. W szeregu projektów, w których braliśmy udział, nasi klienci zwykle używali dosyć prostych metod prognozowania popytu. Zwykle była to średnia z jakiegoś okresu do prognozowania wszystkich produktów. Można powiedzieć, że mieliśmy do czynienia z podejściem one fits all. Czyli, że jeden model miał się sprawdzać (w cudzysłowie oczywiście) zarówno dla produktów o specyfice sezonowej, jak i dla produktów o specyfice regularnej. Oczywiście stosowanie takich uproszczonych metod prognozowania popytu jest atrakcyjne, bo proste. Niestety w rzeczywistości daje dużo gorsze efekty niż np. próba zastosowania indywidualnych metod czy modeli prognostycznych w stosunku do każdego produktu w każdej lokalizacji. Czyli jeżeli mamy np. sieć dystrybucyjną, to ten sam produkt w sklepie A może mieć zupełnie inny wzorzec popytowy niż w sklepie B. W związku z tym trudno stosować tę samą metodę prognozowania popytu dla obu produktów. Najlepiej dobrać metody, które uwzględniają wzorce popytowe produktu w każdej lokalizacji. 

Jakie są przykłady zastosowania AI w zakresie prognozowania popytu? 

Tak. Generalnie w każdym projekcie stosujemy sztuczną inteligencję w zakresie prognozowania popytu. Nasz model sztucznej inteligencji analizuje wzorce popytowe, czyli właśnie historię sprzedaży. Ale nie tylko. Bierze też pod uwagę np. wpływ dni kalendarzowych. Przykładem niech będzie branża spożywcza, która jest podatna na efekt dni kalendarzowych, jak święta Bożego Narodzenia. Prognoza na ten czas jest stosunkowo prosta, bo te święta są zawsze w tym samym czasie. Natomiast Wielkanoc czy Boże Ciało są świętami ruchomymi i dają wzrost sprzedaży w różnych okresach w różnych latach. Jeżeli algorytm tego nie rozumie, to może nas prowadzić na manowce i kazać nam się zatowarować nie wtedy, kiedy byśmy tego chcieli.  

Wróćmy do samego algorytmu prognozowania popytu.  W naszym systemie jest metoda, która potrafi na podstawie analizy wzorca popytowego danego produktu wybrać spośród dostępnych modeli ten, który da najwyższą trafność.  

W pierwszej kolejności system analizuje popyt i stwierdza, że ma np. do czynienia z popytem sezonowym. W związku z tym z puli modeli, które są dostępne do prognozowania popytu sezonowego, przetestuje te, które uzna za najlepsze. Spośród nich wybierze finalnie ten, który da najwyższą trafność, czyli najniższy błąd prognozy. To znacznie poprawia trafność prognozy. 

Jakie korzyści daje stosowanie AI w prognozowaniu popytu? 

 Automatyzacja procesu to pierwszy zysk. Często prognozowanie popytu jest prowadzone manualnie. Osoby, które odpowiadają za proces prognozowania, muszą np. eksportować dane z systemów źródłowych i je obrobić, np. oczyścić. Później starają się generować prognozy popytu. To zabiera dużo czasu. Jeżeli chcemy mieć często aktualizowane prognozy, to potrzebna jest automatyzacja. Wymierną korzyścią jest oszczędność czasu.  

Lepsze prognozowanie dzięki uczeniu się. Z jednej strony stawiamy prognozy popytu i one mają określony błąd ex ante (sprawdzamy, jak prognoza ma się do modelu na przyszłość). Możemy też sprawdzić błąd prognozy ex post. Na przykład, jeżeli w procesie prognostycznym uczestniczyli eksperci, to mogą sprawdzić, czy zmiany prognozy statystycznej, którą wprowadzili, miały sens, czy nie. Mamy efekt uczenia się organizacji. 

Czym jest optymalizacja zapasów? 

Optymalizację zapasów sprowadzam do dwóch ryzyk:  

  • do ryzyka wystąpienia braków, czyli sytuacji out of stock,  
  • do ryzyka wystąpienia nadmiernych zapasów, czyli sytuacji overstock

Jeżeli dążymy do optymalizacji zapasów, to dążymy do minimalizacji obu ryzyk. Zwykle robimy to równolegle, ponieważ w firmach na ogół występują oba zjawiska jednocześnie. Dla przykładu, jedne produkty czy grupy produktowe są przetowarowane, a inne niedotowarowane. W związku z tym, optymalizując zapasy w całej organizacji, staramy się optymalizować oba te obszary i minimalizować ryzyka. 

Dlaczego optymalizacja zapasów jest istotna?  

W przypadku wystąpienia ryzyka overstock mamy zamrożony kapitał w zapasie, który de facto jest nam niepotrzebny.  Jeżeli zmniejszymy nadmierny zapas, automatycznie uwalniamy kapitał, który możemy przeznaczyć na inne czynności. Overstock to oczywiście koszty logistyczne. Nadmierny zapas niepotrzebnie magazynujemy, niepotrzebnie wykonujemy operacje wewnątrzmagazynowe, niepotrzebnie go transportujemy. Eliminując nadmierny zapas, eliminujemy szereg dodatkowych kosztów. 

W przypadku sytuacji out of stock, czyli braku zapasu, pojawia się strata na sprzedaży czy marży. Firma może realizować wyższe przychody i wyższą marżę, jeżeli ma odpowiednią dostępność. Brak dostępności może spowodować utratę klientów. Jeżeli klient do nas przychodzi regularnie i boryka się z problemem dostępności produktów, może po prostu z nas zrezygnować i pójść do konkurencji. To będzie dużo bardziej bolesne niż tylko jednorazowa utrata transakcji. 

Czy sztuczna inteligencja może pomóc w optymalizacji zapasów?  

Jak najbardziej. Jeżeli będziemy mieli prognozy pozwalające lepiej przewidzieć, jaki jest rzeczywisty popyt, to odpowiednio się zatowarujemy. Prognoza jest elementem, który w pierwszej kolejności wykorzystujemy do optymalizacji zapasów, ale nie tylko. Sama prognoza nie jest decyzją. Na podstawie prognozy nie podejmujemy decyzji, jak się zatowarować. Jest jeszcze szereg elementów, które na to wpływają:  

  • nasza strategia dotycząca tego, jak duży chcemy mieć zapas danego towaru,  
  • jakie mamy lead time’y np. u dostawców,  
  • jakie są minimalne wielkości zamówień.  

Mamy szereg ograniczeń w łańcuchu dostaw, które mocno wpływają na decyzje.  Odpowiednie przygotowanie parametrów sterujących łańcuchem dostaw jest kluczowe, by uzyskać efekt optymalnych zapasów. 

Czy do optymalizacji zapasów można wykorzystać matematyczną funkcję celu?  

Tak, do optymalizacji zapasów wykorzystujemy m.in. matematyczną funkcję celu z ograniczeniami. W tym przypadku możemy wybrać dwa cele optymalizacji.  

  • Pierwszy cel to osiągnięcie minimalnego łącznego kosztu logistycznego przy wymaganej dostępności zapasów.  
  • Drugi – np. uzyskanie maksymalnej marży.  

Cel jest określony, ale są także ograniczenia, na przykład: 

lead time’y u dostawców na zatowarowanie czy na produkcję własną,  

– minima logistyczne,  

– dostępność powierzchni magazynowej.  

Mamy szereg ograniczeń, które muszą być spełnione, jeżeli chcemy osiągnąć optimum.  

Ta matematyczna funkcja celu dąży do tego, żeby znaleźć takie parametry sterujące zapasami, przy których uzyskamy np. najniższy możliwy poziom kosztów logistycznych, przy zachowaniu właściwej dostępności.  

Przykład: W danym centrum dystrybucji jest np. 5000 produktów. Załóżmy, że wykorzystujemy analizę ABC Pareto do tego, żeby pogrupować je pod kątem ich wagi. Dla nas może to być waga wartościowa przy sprzedaży. Załóżmy, że produkty z klasy A, które są dla nas najistotniejsze, mają mieć dostępność na 95%. To jest nasz service level.  

Z drugiej strony są koszty związane z zapasami: 

  • składowania, 
  • operacji logistycznych,  
  • transportu,  
  • utraconej sprzedaży,  
  • kar umownych, jeżeli mamy je wpisane w kontraktach z naszymi klientami.  

Ewentualnie możemy też ponosić straty związane z tym, że zapas po jakimś czasie stanie się niezdatny do dalszej sprzedaży, np. mija termin jego przydatności do spożycia. Mamy szereg różnych uwarunkowań.  

System korzysta z tych informacji wprowadzonych do algorytmu i szuka takich parametrów sterujących zapasem, np. minimaxy, przy których uzyskamy efekt łącznego minimalnego kosztu logistycznego, przy założonej dostępności poszczególnych produktów.  

Klienci zwykle stosują politykę zarządzania zapasami minimax. Przychodzimy do firmy i okazuje się, że do określonych produktów przypisane są wielkości minimalnego i maksymalnego zapasu, czy to ilościowego, czy opartego na dniach pokrycia. I gdy pytamy, jak zostały te mini i maxy określone, to zwykle trudno nam uzyskać jednoznaczną odpowiedź. Żeby wyliczyć (z punktu widzenia matematycznego) te właściwe poziomy minimaksowe, można wykorzystać matematyczną funkcję celu z ograniczeniami. 

Czy używanie standardów GS1 usprawnia przepływ danych między partnerami w łańcuchu dostaw? 

Jak najbardziej. Jedną z metod optymalizacji zarządzania zapasami oraz poprawy trafności prognoz jest wymiana danych między partnerami w jednym łańcuchu dostaw. Jeżeli nasi klienci informują nas, jakie są ich przewidywania sprzedaży naszych produktów w ich sklepach, to mamy już cenną informację do porównania z naszymi prognozami. Tutaj pojawia się wymóg, żeby mówić o tych samych rzeczach. Jeżeli nasz klient mówi, że przewiduje sprzedaż produktu A, to chcielibyśmy być pewni, że my identyfikujemy ten produkt w ten sam sposób. Stosując standardy GS1, mamy tę identyfikację zapewnioną.  

Z drugiej strony – jeżeli rozmawiamy z dostawcami i my z kolei wysyłamy im nasze wstępne harmonogramy, ile, kiedy i czego chcemy kupić, to także dobrze jest informować w jednoznaczny sposób, o czym mówimy. Więc tutaj standardy jak najbardziej pomagają.  

Wracając jeszcze też do matematycznej funkcji celu… To my właśnie w projekcie współfinansowanym przez Narodowe Centrum Badan i Rozwoju stworzyliśmy model. Potrafi on przygotować optymalizację z punktu widzenia i odbiorcy, i dostawcy. Dla przykładu: jesteśmy dystrybutorem i utrzymujemy jakieś zapasy produktów, które są dostarczane przez producenta. Powstaje pytanie, czy taki zapas lepiej trzymać u nas w magazynie czy u producenta w magazynie wyrobów gotowych. Dlaczego? Dlatego że mogą być zupełnie różne koszty utrzymywania tego zapasu u nas versus u producenta. Znajdujemy nowy poziom równowagi między partnerami, który daje sytuację win-win. To oznacza, że jedna i druga strona na tym zyskuje, bo sumarycznie mamy niższe koszty logistyczne. 

Dokładnie tak. 

Jak sztuczna inteligencja może pomóc w prognozowaniu popytu w działalności? 

Sztuczna inteligencja ma przyspieszyć proces prognozowania popytu i optymalizacji zapasów, zautomatyzować go i zwiększyć jego efektywność poprzez wykorzystanie algorytmów matematycznych.  

Dzięki sztucznej inteligencji będziemy dużo szybciej reagować na zmiany rynkowe. Jeżeli mamy proces zarządzania zapasami lub takie operacje, które mają miejsce codziennie, to bardzo trudno jest reagować na bodźce z rynku bez wsparcia maszynowego. Liczba danych, które do nas trafiają i które mogą okazać się przydatne w podejmowaniu decyzji, jest coraz większa. Ludzie mają określone możliwości percepcyjne. W związku z tym bardzo trudno jest podejmować trafne decyzje w bardzo krótkim czasie bez wspierania się sztuczną inteligencją. 

Czym jest rozwiązanie Dature?  

Dature – to złączenie słów data i future. Jest dostępne jako rozwiązanie chmurowe, dzięki czemu nie wymaga od naszych klientów instalowania aplikacji. Staramy się tak rozwijać nasz produkt, żeby z jednej strony był wyposażony w jak najlepsze know-how w obszarze AI. A z drugiej strony – by był bardzo prosty w użytkowaniu. Chcemy, żeby użytkownik końcowy miał duży komfort pracy z naszym rozwiązaniem. 

Jakie branże mogą korzystać z Dature? 

Wśród naszych klientów są firmy z branży spożywczej, farmaceutycznej, chemicznej, materiałów budowlanych, firmy e-commerce’owe. Generalnie wszędzie tam, gdzie potrzebne jest prognozowanie przyszłej sprzedaży i optymalizacja zapasów, nasze rozwiązanie bardzo dobrze się sprawdza.  

  • Dzięki wykorzystaniu chmury możemy oferować nasze rozwiązanie zarówno firmom średniej wielkości, jak i bardzo dużym organizacjom.  
  • Chmura pozwala na skalowanie, czyli możliwość pracy zarówno z niewielkimi wolumenami danych, jak i z bardzo dużymi.  
  • Nasi klienci mogą być pewni, że będziemy w stanie zaspokoić ich potrzeby, gdy ich firma będzie się rozrastać.  

Jak wygląda proces wdrożenia Dature w organizacji?  

Wdrażanie Dature składa się z kilku etapów.  

W pierwszej kolejności razem z klientem wypracowujemy dokument koncepcji rozwiązania. Mapujemy obecne procesy klienta.  

Jeżeli jest to konieczne, robimy niewielki reengineering procesu biznesowego po to, żeby nasze narzędzie mogło być jak najlepiej wykorzystywane przez klienta.  

Na podstawie tego dokumentu przechodzimy do analizy danych, które są potrzebne, żeby zasilić naszą aplikację. Weryfikujemy z klientem, jakie dane są potrzebne, sprawdzamy, czy są dostępne.  

Jeżeli są potrzebne dodatkowe dane, których warto byłoby użyć w procesie, to także omawiamy to z klientem. 

Jakie dane są potrzebne w procesie wdrażania Dature w organizacji?  

Jeżeli chodzi o nasz system, to w prognozowaniu popytu wykorzystujemy dane sprzedażowe, czyli pochodzące z wnętrza firmy, ale też dane zewnętrzne. 

Przykładem może być firma wrażliwa na pogodę, która sprzedaje napoje czy lód. Interesujące z punktu widzenia takiego klienta może być pozyskanie danych pogodowych. Możemy pobrać dane z zewnętrznych serwisów pogodowych, np. OpenWeather. Jeżeli zaciągniemy historię sprzedaży od klienta i zderzymy ją z informacjami pogodowymi, to algorytm uczenia maszynowego nauczy się, przy jakiej temperaturze najlepiej sprzedawały się produkty, a przy jakiej przestawały się sprzedawać. Prognoza popytu statystycznego może odpowiednio zastosować te informacje do przyszłej sprzedaży. Dzięki temu, że bierzemy pod uwagę nie tylko sprzedaż historyczną, ale również czynnik zewnętrzny, czyli zmiany pogodowe, uzyskujemy lepszą trafność prognoz. 

  • Dzięki danym jesteśmy w stanie zbudować interfejs pozwalający na automatyzację przepływu danych między systemem źródłowym klienta, którym jest zwykle system ERP lub BI, czasami hurtownia danych.  
  • Gdy mamy zorganizowaną synchronizację danych i ich przepływ, wykonujemy z klientem testy. Sprawdzamy na podstawie jego rzeczywistych już danych, jak kształtują się prognozy i rekomendacje towarowania. Jeżeli konieczne są reparametryzacje, to zwykle je wykonujemy. Mówimy tu o procesie testów iteracyjnych (zwykle są 2-3 iteracje).  
  • W momencie, kiedy mamy pewność, że system generuje prawidłowe prognozy i rekomendacje, czyli mamy właściwe parametry sterujące tymi procesami, szkolimy użytkowników końcowych. Ruszamy z pracą produkcyjną w naszym systemie.  
  • Taki proces wdrożenia zajmuje zwykle trzy lub cztery miesiące. Zależy to oczywiście od złożoności organizacji, w której implementujemy nasze rozwiązanie. 

Jaka jest skuteczność prognozowania popytu z użyciem sztucznej inteligencji? 

W dużej mierze skuteczność zależy od tego, jak dobre jakościowo mamy dane do prognozowania popytu. Skuteczność może być mierzona w formie błędu prognozy albo trafności prognozy. 

Najlepiej, gdy mamy dane wysokiej jakości, czyli np. dobrze przechowywaną historię sprzedaży oraz dodatkowe dane, które wpływają na prognozę, jak:  

  • dane pogodowe,  
  • dane dotyczące wpływu np. świąt,  
  • dane dotyczące promocji albo zmian cen bazowych.  

Tego typu dane wykorzystujemy w procesie uczenia maszynowego, czyli zastosowania sztucznej inteligencji do prognozowania popytu. Nasze algorytmy, np. sieć neuronowa, mogą nauczyć się wpływu tych dodatkowych zmiennych i ich siły wpływania na popyt.  

Jeżeli mamy taką sytuację, że: (1) elementem, który bardzo mocno wpływa na popyt, jest np. budowanie akcji promocyjnych, (2) mamy w historii informacje, kiedy takie akcje miały miejsce i jak wpłynęły na popyt, (3) wiemy, że w kolejnym tygodniu chcemy uruchomić promocję, to wtedy statystycznie algorytm jest w stanie pokazać, jak ta promocja wpłynie na popyt. Dzięki temu możemy uzyskać prognozę o wyższej trafności i wyższej jakości. 

Natomiast jeżeli mamy dane słabsze jakościowo, brakuje wszystkich zmiennych niezależnych wpływających na popyt, to oczywiście musimy liczyć się z tym, że trafność prognozy może być odpowiednio niższa.  

Dlatego zawsze zachęcam klientów, żeby pielęgnowali dane i utrzymywali je w należytym porządku. Chodzi o to, by one były jednoznacznie interpretowalne. Jeżeli robimy promocje, to niech będą właściwie opisane, nie tylko „kiedy i gdzie się odbyły”, ale także „jaki to był typ promocji”. 

W przyszłości tego typu informacje będą procentowały w procesie prognozowania popytu i w efekcie dostaniemy bardziej trafne prognozy.  


Zobacz inne odcinki podcastu „Prosto o cyfryzacji”:


Podobne artykuły

array(6) { ["post_type"]=> string(11) "baza_wiedzy" ["post__not_in"]=> array(1) { [0]=> int(8238) } ["orderby"]=> string(4) "rand" ["order"]=> string(3) "ASC" ["ignore_sticky_posts"]=> bool(true) ["tax_query"]=> array(1) { [0]=> array(3) { ["taxonomy"]=> string(18) "kategorie_artykulu" ["field"]=> string(7) "term_id" ["terms"]=> array(1) { [0]=> int(110) } } } }

Zarejestruj się i dołącz do ponad 1500 członków naszej społeczności i otrzymaj:

  • Specjalistyczną wiedzę i sprawdzone informacje dotyczące tematu cyfrowej transformacji
  • Szkolenia e-learningowe poświęcone digitalizacji łańcucha dostaw
  • Dostęp do sprawdzonych rozwiązań certyfikowanych partnerów

Jeśli potrzebujesz pomocy z rejestracją Skontaktuj się z nami
Masz już konto? Zaloguj się