Programy CRM

CRM - artykuły, definicje, wdrożenia

CRM

CRM - oprogramowanie, systemy

IT Guru

Wdrażanie dużych systemów klasy CRM i ERP jest procesem długotrwałym i skomplikowanym. Jedną z pierwszych decyzji podejmowanych w takich projektach jest dobór zasobów systemu informatycznego (serwery, sieci, narzędzia wspomagające), w oparciu o które będzie pracował wdrażany przez nas system CRM lub ERP.

Pełna weryfikacja prawidłowości dokonanego wyboru jest najczęściej możliwa dopiero przy oddaniu systemu do użytku - dopiero wtedy widzimy, czy system świetnie działający w środowisku testowym równie dobrze sprawdza się w skali przedsiębiorstwa. Jeżeli jednak po uruchomieniu systemu zamiast oczekiwanych gratulacji otrzymujemy lawinę skarg "dlaczego to tak wolno działa?" zaczynamy sobie zadawać pytania - czy możliwe było lepsze dobranie infrastruktury i gdzie został popełniony błąd?

Mam instrukcję
Każdy z liczących się producentów dużych systemów CRM i ERP posiada dokumentację pozwalającą na wstępne skalowanie środowiska IT niezbędnego do pracy systemu. Powstaje pytanie: dlaczego w związku z tym wybór odpowiedniej infrastruktury jest procesem tak skomplikowanym? Decyduje o tym kilka powodów, wśród których można wymienić:

  • indywidualność każdego wdrożenia - duże systemy są indywidualnie dostosowywane do wymogów konkretnego klienta. Ilość specyficznych wymagań dla danego projektu jest na tyle duża, że uniemożliwia stałe i z góry określone przygotowanie wymagań technicznych dotyczących na przykład wydajności serwerów czy pojemności baz danych;
  • systemy są często uruchamiane w ramach istniejącej infrastruktury - co znacząco utrudnia przewidzenie, jak system zachowa się w rzeczywistych warunkach produkcyjnych. Po wdrożeniu może na przykład okazać się, że mimo zapewnienia w sieci WAN dodatkowej przepustowości na poziomie x kbps na sesję zgodnie z wymaganiami producenta, z powodu braku mechanizmów Quality of Service, aplikacja działa bardzo wolno;
  • aspekty psychologiczne - wiedząc, że od prawidłowej pracy nowych systemów zależy najczęściej funkcjonowanie całego przedsiębiorstwa, działy IT dokonują inwestycji przewymiarowanych. Mając do wyboru odpowiedzialność związaną z zaburzeniem pracy firmy, będącą skutkiem niedoszacowania zasobów lub znaczące ich przeszacowanie, najczęściej wybierają tą drugą opcję. Efektem jest niepotrzebny wzrost nakładów na wdrożenie.

Zapytam kogoś kto to już robił
Dobór platformy sprzętowej pod wdrażany system jest często uwarunkowany preferencjami klientów, wynikającymi z przyjętych standardów korporacyjnych, nakazujących wybór konkretnego producenta. Jeżeli klient nie ma z góry przyjętych preferencji, pierwszym czynnikiem decydującym o wyborze są rekomendacje przygotowane przez producenta oprogramowania. Z doświadczenia wynika, że najczęściej stosowanym kryterium wyboru elementów platformy sprzętowej jest stosunek uzyskiwanej wydajności aplikacji pracującej na danym urządzeniu do ceny urządzenia. Pojawia się jednak pytanie: jak uzyskać dane o wydajności aplikacji pracującej na danym urządzeniu przed jego zakupem oraz uruchomieniem funkcjonalności docelowej? Rozwiązaniem najprostszym jest analiza wyników testów wydajnościowych, wykonywanych przez niezależne organizacje takie jak TPC oraz SPEC. Minusem takiego podejścia jest fakt, że testy przeprowadzane przez powyższe organizacje wykonywane są w środowiskach mocno odbiegających od standardów środowiskowych i aplikacyjnych w firmie przygotowującej się do wdrożenia. Stanowi to zagrożenie, że założenia jakie zostały przyjęte w oparciu o zewnętrzne testy wydajnościowe mogą okazać się nieprawdziwe. Alternatywą jest skorzystanie z doświadczeń firm mających duże doświadczenie zarówno we wdrażaniu, jaki i utrzymywaniu aplikacji, którą planujemy wdrożyć. W oparciu o wiedzę zdobytą w tego typu projektach możliwe jest często precyzyjne ustalenie wymagań dla platformy sprzętowej, niezbędnych do osiągnięcia wymaganej wydajności. Rozwiązaniem najpewniejszym, ale z drugiej strony najkosztowniejszym jest wynajęcie sprzętu lub laboratorium, w oparciu o które możliwe będzie przeprowadzenie wewnętrznych testów wydajnościowych, poprzedzających decyzję o zakupie konkretnego sprzętu.

Serwery uruchomione

Serwery zostały uruchomione, ale z tymi pakietami coś jest jednak nie tak bo okazuje się, że nawet doskonale wyskalowana architektura sprzętowa aplikacji nie zapewnia optymalnych parametrów jej działania. Równie ważnym elementem funkcjonowania systemu jest bowiem tzw. warstwa sieciowa. Optymalne warunki pracy otrzymamy jedynie wówczas, gdy wszystkie elementy, począwszy od struktury sieci LAN, poprzez dobór technologii i protokołów transmisji danych, a na strukturze WAN skończywszy, będą dobrane prawidłowo. Prawidłowo oczywiście nie znaczy maksymalnie zmieścić się w budżecie, prawidłowo znaczy odpowiednio dla danego projektu czy systemu.

Dziś każdy klient o średnio rozwiniętej wiedzy informatycznej jest w stanie zapewnić sobie komunikację, zarówno pomiędzy komputerami czy serwerami w biurze, jak i pomiędzy lokalizacjami swojej firmy. Kupuje w tym celu urządzenia sieciowe (przełączniki, rutery, firewalle) powszechnie dostępne na rynku i coraz prostsze w obsłudze. Korzysta z jednej z usług oferowanych przez któregoś z dostępnych operatorów, których oferty są również łatwe do sprawdzenia. Mogłoby się wydawać, że to w zupełności wystarczy. Komputery przecież "się widzą", pracownicy z różnych lokalizacji mogą się komunikować. Tymczasem, zazwyczaj struktury takie nie pracują dobrze lub są znacząco zbyt drogie w stosunku do rzeczywistych potrzeb klienta. Wiele rzeczy wpływających na optymalizację parametrów i kosztów jest bowiem zwyczajowo pomijanych.
Prawidłowy dobór struktury sieciowej zarówno w zakresie sieci LAN jak i WAN powinien zaczynać się od analizy potrzeb wynikających z aplikacji klienta. To na tej podstawie powinna zostać podjęta decyzja co do wyboru odpowiedniej architektury sieci, właściwego sprzętu, łączy, systemów bezpieczeństwa, systemów głosowych. Warto również skorzystać z usług profesjonalnej firmy, której specjaliści są w stanie, posiadając szeroką wiedzę w zakresie sprzętu i rozwiązań sieciowych, odpowiednio skonfigurować mechanizmy Quality of Service czy bezpieczeństwa. Często bowiem to aspekt prawidłowej konfiguracji sprzętu sieciowego decyduje o optymalizacji jakości rozwiązania oraz jego kosztów.

Coś nowego?
Standardowe podejście do planowania zasobów systemu informatycznego bazuje na wiedzy i doświadczeniu. Chcąc sprawnie uruchomić system szukamy kogoś, kto wykonywał już podobną instalację i może nam pomóc w dobraniu niezbędnych elementów. Problem jest jednak następujący: często podobne instalacje nie istnieją, a wydawałoby się drobne różnice pomiędzy wdrożeniami w efekcie prowadzą do dużych rozbieżności.

Istnieje jednak rozwiązanie alternatywne polegające na zasymulowaniu docelowego działania systemu informatycznego, obejmującego wszystkie kluczowe aplikacje w firmie. Czy mamy więc zbudować dla celów testowych laboratorium będące odzwierciedleniem obecnego systemu i zaangażować 1000 użytkowników, aby symulowali rzeczywisty ruch w naszej sieci WAN? Nie. Rozwiązanie jest prostsze - wystarczy skorzystać z oprogramowania Opnet IT Guru.
IT Guru jest rozwijanym od 1996 roku specjalistycznym oprogramowaniem pozwalającym na tworzenie wirtualnych środowisk obejmujących routery, przełączniki, serwery, protokoły, a także indywidualne aplikacje. Jedną z jego funkcji jest optymalizacja planowania infrastruktury. W oparciu o IT Guru możliwe jest odwzorowanie rzeczywistego funkcjonowania środowiska IT, a następnie dodanie do niego planowanej aplikacji typu CRM i ERP. W efekcie możliwe jest określenie w środowisku laboratoryjnym efektywności nowej aplikacji oraz rozpoznanie wpływu jaki przyniesie jej uruchomienie na już pracującą infrastrukturę. Jak się to robi?

Efektem wykorzystania IT Guru na etapie planowania infrastruktury jest możliwość bardzo dokładnego określenia potrzebnych zasobów w konkretnym projekcie. Możliwość rzeczywistego przetestowania docelowej architektury eliminuje konieczność zakupu urządzeń o przeszacowanej wydajności. Jednocześnie pozwala na wykrycie większości elementów, których wydajność jest za mała.
Niezwykle użytecznymi narzędziami dostępnymi w IT Guru są moduły NetDoctor oraz AppDoctor wskazujące najbardziej prawdopodobne przyczyny niewłaściwej pracy sieci/aplikacji oraz sugerujące sposoby rozwiązania problemu. Dzięki nim możliwe jest znalezienie rzeczywistego miejsca występowania problemu, co pozwala na uniknięcie sporów kompetencyjnych, np. serwer działa prawidłowo, to na pewno jest wina sieci. Dodatkowo, często rzeczywiste źródła problemu są trudne do znalezienia. W jednym z wdrożeń IT Guru wykazał, że przyczyną złej pracy aplikacji jest błędny parametr TCP na jednym z serwerów. Przyczyną wskazywaną przez konsultantów była za mała przepustowość sieci WAN. W efekcie uniknięto kosztów rozbudowy sieci, wykonując jedynie rekonfigurację serwera.

Czy to działa?
IT Guru jest oprogramowaniem, z którego korzystają największe firmy na świecie, zarówno producenci (m.in. HP, Cisco, Boeing), operatorzy (AT&T, France Telcom, PTC Era), jak i klienci końcowi (CitiCorp, Visa International, DHL). Wśród opisów efektów uzyskanych dzięki wdrożeniu IT Guru znaleźć można m.in.:

  • SunTrust Bank - 40 proc. poprawienie czasu odpowiedzi aplikacji, 19 proc. zmniejszenie ilości problemów zgłaszanych do Help Desk,
  • JP Morgan - zapobieżenie przeciążeniu sieci, które nastąpiłoby po dodaniu 3,5 mln nowych użytkowników. Szacowane straty wyniosłyby 1,2 mln USD na dzień.

Dobrym porównaniem metod planowania zasobów, przy uruchamianiu dużych systemów, jest wdrożenie nowego systemu finansowego w FleetBoston (siódma instytucja finansowa w USA). FleetBoston został poddany restrukturyzacji organizacyjnej, na którą nałożyło się uruchomienie nowego systemu w ponad 1500 lokalizacjach. Poprzedni system informatyczny opierał się na pracy 10 konsultantów zewnętrznych, których rolą było profilowanie użytkowników oraz zasobów i badanie zachowania aplikacji w środowisku rzeczywistym. Przy wdrażaniu nowego systemu, przy znacząco większej jego funkcjonalności i złożoności, zdecydowano się na użycie IT Guru. Efektem było wykonanie pracy realizowanej poprzednio przez 10 konsultantów w oparciu o 2 pracowników działu IT FleetBoston. Zaoszczędzono dzięki temu 2mln USD na samych kosztach zatrudnienia konsultantów zewnętrznych oraz dodatkowo skrócono pracę o cały rok.

Czy to dla mnie?
IT Guru jest oprogramowaniem zalecanym przy wdrażaniu dużych i skomplikowanych systemów lub w projektach, w których niezwykle ważna jest minimalizacja czasu uruchomienia. Ze względu na koszt oprogramowania (kilkadziesiąt tysięcy USD), dopiero przy tego typu wdrożeniach oszczędności związane z jego wykorzystaniem mogą wielokrotnie przewyższyć koszt jego zakupu. Jednak również w małych projektach inwestycje związane z IT Guru mogą być opłacalne - dzieje się tak w przypadku, gdy potencjalne straty przedsiębiorstwa, związane z opóźnieniem lub błędami w produkcyjnym oddaniu aplikacji, mogą znacznie przekroczyć nakłady związane z jego zakupem.

Jacek Urban
Business Solution Manager

źródło: http://nowetechnologie.comarch.com/?akcja=Article&ArticleId=68

Co Ci da członkostwo w Złotym Klubie?

Arka Detektyw Częstochowa

Kancelaria adwokacka Częstochowa

Biznes oferty

 

Copyright 2006-2017 CRM-marketing.pl MIG hosting, Kontakt