Relacja 2014

FOTOVIDEOMEDIA

Zdjęcia z konferencji ZIP2014

Videorelacja z konferencji ZIP2014


Rozmowa z Christopherem Wallstromem z firmy Findwise


Dane są najważniejsze

Systemy można zmienić, ale dane pozostaną – to hasło można by uznać za motto konferencja Zarządzanie Informacją w Przedsiębiorstwie (ZIP2014).

Konferencja przyniosła wiele ciekawych i nieraz kontrowersyjnych spostrzeżeń – dla biznesu, ekspertów zajmujących się danymi i wreszcie samego IT. Hasło „dane to nie jest sprawa dla IT” mogło irytować, ale trend jednak jest nieuchronny – biznes musi być coraz bardziej świadomy wagi strategicznego podejścia do danych i potrzeby budowy właściwych struktur i procesów w obszarze danych. Zasoby informacyjne stanowią bowiem coraz istotniejszy czynnik budowania wartości firm i ich przewagi konkurencyjnej. Chodzi tutaj zarówno o jednolity fundament wspólnej definicji i rozumienia danych (MDM), poziom architektury, jak i samej organizacji i umiejscowienia obszarów BI w firmie.

Zdaniem Grzegorza Stępniaka, CIO na Poczcie Polskiej, współczesne organizacje w ogóle nie są przystosowane do przetwarzania informacji. Pod tym względem, by było to w możliwie dużym stopniu efektywne, powinny być zorganizowane całkiem inaczej. Jak – tego dzisiaj jeszcze nie wiadomo. Wiadomo jednak, że informacje to coś innego niż dane, że bardzo ważny jest tutaj kontekst człowieka, że same systemy IT ze swoimi repozytoriami danych, to jedynie jeden z elementów całej układanki.

Grzegorz Bartler, szef obszaru BI w Polkomtelu, w dyskusji panelowej, poświęconej szukaniu odpowiedzi na pytanie, kto powinien być gospodarzem danych w firmie, nie krył, że o ile większość IT w firmie można śmiało wyoutsourcować, to analityki już się tak łatwo nie da, bo rzeczy bardzo związane z daną firmą i z obszarem konkurencyjności.

Prof. Marcin Paprzycki z Polskiej Akademii Nauk apelował, by zerwać z linearnym myśleniem o danych i sposobie ich analizy. Brak zupełnie nowego spojrzenia, zerwania ze starymi przyzwyczajeniami i modelami mentalnymi, czyni nas zupełnie nieprzygotowywanymi na wyzwania przyszłości. Tutaj nieuchronnie pojawia się temat BigData, co do znaczenia i praktycznej stosowalności którego widać wyraźną polaryzację stanowisk.

Nie brak sceptyków, wskazujących, że BigData to mocno nagłośniony koncept marketingowy, istotny w praktyce dla jedynie bardzo wąskiego firm internetowych. Jakkolwiek samo hasło bywa faktycznie mocno nadużywane, to jednak nie można pominąć tego, że jest to także całkiem nowe instrumentarium narzędziowe i sposób analizy danych, wymagające odrębnych kompetencji technologicznych. Danych stale przybywa, a BigData stanie się tym bardziej ważne, gdy nadejdzie czas powszechności zastosowań komunikacji M2M (Machine to Machinee) i rozwoju Internetu Rzeczy. Wtedy różnego rodzaju urządzania wyposażone w sensory i moduły komunikacyjne staną się źródłem ogromnej liczby danych, zgodnych z charakterystykami BigData (4V), których analiza i przetwarzanie otworzy możliwości działania zupełnie nowych usług i modeli biznesowych. Dla naszego tu i teraz praktyczne możliwości stosowania BigData może bardzo ograniczyć brak odpowiednich kadr i zasobów – specjalistów znających się na BigData praktycznie w ogóle nie ma!

Sytuacja jeszcze bardziej się komplikuje, jeśli uwzględnić, że sama analiza – wg. szkoły tradycyjnego BI, czy w nowym rycie BigData, to tylko jeden z elementów układanki, którą tworzy architektura informacji i możliwość wyszukiwania, a więc szybkiego docierania do poszukiwanej informacji, z czym wiele organizacji nadal ma duże problemy. Na to uwagę zwracał Christopher Wallstrom, główny ekspert z obszaru Information Management w firmie Findwise.

Warto zobaczyć także rozmowy przeprowadzone z keynote na konferencji ZIP2014:

Jarosław Chrupek z British American Tabacco:
http://it-manager.pl/j-chrupek-dane-to-nie-jest-sprawa-dla-it/

Martha Bennett z Forrester Research:
http://itwiz.pl/big-data-wymaga-gotowosci-na-zmiany-przedsiebiorstwie/

W trakcie konferencji miała miejsce sesja równolegle prowadzonych dyskusji roundtables, w trakcie których głos zabrać mogli praktycznie wszyscy uczestnicy.

Wnioski z wybranych dyskusji roundtable:

Krzysztof Gwardys, prezes Promity
W obszarze Governance, czyli Architekta informacji, wprowadzenie w organizacji ładu danych (tj. „data governance”) wymaga nie tylko przyjęcia właściwych struktur organizacyjnych i procesów ale odnalezienia w niej „mistrzów danych”. Na podstawie doświadczeń uczestników wskazano na możliwość podziału tego typu autorytetów na dwie grupy. Pierwszą stanowią osoby z tzw. biznesu, których codzienne działania operacyjne bazują na analizie danych. W zależności od rodzaju organizacji mogą być to przedstawiciele departamentów finansów, księgowości, ryzyka czy bezpieczeństwa. Druga grupa „mistrzów danych” to osoby funkcjonujące w strukturach IT i cechujące się bardzo dużym stażem w organizacji oraz związaną z nim wysoką percepcją biznesu.

W obszarze ładu danych szczególną uwagę zwraca się na konieczność określenia właścicielstwa danych. W dalszej kolejności traktuje się jako istotne kompetencje związane z zarządzaniem definicjami danych (tzw. stewardship). Stosunkowo wysoko oceniana jest też rola architekta danych, szczególnie w kontekście wsparcia zmian w organizacji. W sektorze bankowym obszar danych został uznany za szczególnie ważny przez KNF (co znajduje wyraz we wprowadzonej i obecnie realizowanej przez banki „Rekomendacji D”, która narzuca wymagania w zakresie zarządzania jakością danych oraz zarządzania architekturą danych).

Rolą budzącą dużo emocji i działającą w obszarze danych organizacji jest „Data Scientist”. Z jednej strony jest on utożsamiany z analitykiem biznesowym zajmującym się eksploracją danych (tj. data mining). Z drugiej strony zauważa się, iż kompetencje ww. analityka muszą istotnie wzrosnąć w związku z nowymi zbiorami danych (jakie tworzą m.in. film, dźwięk, obraz, luźny tekst). W szczególności zakłada się, iż „Data Scientist” posiada bardzo mocne podstawy matematyczne i statystyczne oraz umiejętność analizy danych nieustrukturyzowanych.

Architektura – Architektura danych
Prof. Andrzej Sobczak z SGH i Forum Architektury Korporacyjnej, w swoim wystąpieniu, zdefiniował następujące elementy składowe architektury danych: organizacja (m.in. procesy, role), pryncypia, standardy oraz modele danych. W trakcie roundtable powyższa definicja była dyskutowana, w szczególności postawiono pytanie, czy nie warto zawęzić pojęcia architektury danych do modeli danych. Wówczas pozostałe elementy (m.in. organizacyjne) przeniesiono by na poziom wyższy (tj. ład architektoniczny).

Odnotowano też, iż umiejscowienie domeny danych w ramach IT nie zawsze jest zadowalające, gdyż bardzo często zależy nam na wiedzy o pojęciach biznesowych. Co więcej przy wysokim poziomie ogólności (np. architektura strategiczna) definiowane pojęcia mają często znaczenie bardziej biznesowe niż IT.

Wypromowanie architektury danych w organizacji wymaga jawnego pokazania korzyści biznesowych z niej płynących. Zauważono następujące obszary ww. korzyści: wsparcie zmian organizacyjnych (m.in. portfela projektów), optymalizacja informacji przetwarzanych w organizacji (m.in. efektywność i koszty), wsparcie raportowania.

Agnieszka Zdebiak, prezes Fundacji DataSci
Pojęcie „nowej analityki” kojarzy się z analityką nastawioną na klienta. Definiując pojęcie starej i nowej analityki uczestnicy roundtable wskazali, że aby analityce móc nadać przymiotnik „nowy”, istotnym elementem jest nie tylko dostępność danych real-time, lecz również bezpośrednia dostępność funkcji pozwalających prognozować to, co wydarzy się w przyszłości (idąc dalej chodzi o dostępność narzędzi, które pozwolą na analizę tego, co będzie dalej, jeśli zrobimy daną rzecz, a co może wydarzyć się, jeśli zrobimy coś zupełnie innego).

Uczestnicy chętnie dzielili się przykładami nowych sposobów analizy z różnych branż i dyskutowali nad możliwością adaptacji ich w swoim biznesie. Natomiast jeśli chodzi o analizy typu Big Data, to uczestnicy wskazali, że większość organizacji jest jeszcze na nie niegotowa, ponieważ zasadniczo ma problemy z analizą własnych, do tej pory posiadanych danych.

Łukasz Neuman, CEO GoTechnologies
To, że w dyskusji wzięli udział przedstawiciele wielu różnych branż (przemysł, finansowe, usługi, telekomunikacja), wywodzących się zarówno z obszarów technicznych jak i biznesowych, zaowocowało wieloma ciekawymi spostrzeżeniami. Prawie każdy uczestnik roundtable był poproszony do wypowiedzi na temat obecnego umiejscowienia obszarów BI w swojej organizacji oraz prezentacji wizji, gdzie miałyby takie kompetencje się znajdować. Myślę, że stolik był zgodny co do tego, że szeroko rozumiany BI powinien być umiejscowiony bardzo wysoko w strukturze firmy i nie być w strukturach IT. Natomiast brakowało zgody, do kogo powinien raportować – czy do dyr. finansowego, operacyjnego, sprzedażowego, marketingu, prezesa.

Obszary IT mają wspierać technologią analitykę danych, ale czytanie danych, wyciąganie wniosków na ich podstawie powinno odbywać wśród najważniejszych interesariuszy. Zgodziliśmy się, że w wielu firmach świadomość potencjału, jaki tkwi w danych, z początku faktycznie znajduje się w obszarze IT, które powinno uświadamiać biznes i wspierać go w działaniach, technologii, procesach przetwarzania danych. Jednak „mózg”, który wyciąga wnioski, powinien być ściśle biznesowy…

Marek Stawiński, założyciel i prezes Enterprise Architecture as a Service (EAaaS) B.V.
Wszyscy uczestnicy roundtable byli zgodni, że architektura korporacyjna jest przydatna w zarzadzaniu informacja w przedsiebiorstwie. W wielu firmach na świecie idea “open data” jest dzisiaj ważnym elementem innowacyjności. Trudno myśleć skutecznej realizacji strategii Open data bez architektury korporacyjnej.

W gronie architektów potrzebna jest współpraca – zwłaszcza pomiędzy architektami korporacyjnymi i resztą architektów, w szczególności w obszarze architektury danych i strategii w tym obszarze. Jednak generalnie w Polsce wciąż jest mało architektury korporacyjnej, stąd wielu uczestników roundtabl było raczej zainteresowanych, jaki taki dział architektury zorganizować.

Prof. Marcin Paprzycki, Instytut Badań Systemowych Polskiej Akademii Nauk
Dyskusja zaczęła się omówienia wybranych trendów dotyczących danych w organizacjach: (1) komplikowania się struktur danych (od pojedynczych bitów do Big Data), (2) wzroście ilości dostępnych danych (od kilobajtów do petabajtów), oraz (3) efektów prawa sformułowanego przez Ray’a Kurzweil’a, tzw. „law of accelerating returns” – czyli stwierdzenia, że choć procesy, które maja miejsce wokół nas, rozwijają się tak na prawdę w sposób wykładniczy, to są one zwykle postrzegane jako liniowe (!).

Tutaj pojawia się kluczowe pytanie: czy to my „rządzimy danymi”, czy też to dane „rządzą nami”. Innymi słowy, kto kontroluje to, jakie dane są zbierane i jak są wykorzystywane (min. jakie pytania są zadawane); czy to ludzie podejmują takie decyzje, zanim zaczynają zbierać dane? Czy też może dochodzimy już do momentu, kiedy biznes i administracja zbiera wszystkie dostępne dane, a następnie może łączyć je z innymi publicznie dostępnymi danymi i przetwarza je (wykorzystując techniki z obszaru Big Data) i otrzymane w wyniku takiego procesu informacje „będą kierować naszymi działaniami”?

Tutaj można zastanawiać się, czy to ma jakiekolwiek znaczenie czy w praktyce biznesowej w podejmowaniu decyzji doradzać będzie człowiek czy maszyna (algorytm). Szczególne znaczenie tego pytania wynika np. z tego, że na początku roku 2014 firma Deep Knowledge Ventures powołała do swojej rady nadzorczej program pod nazwą VITAL.

Najbardziej ogólne wnioski, które zostały sformułowane na zakończenie panelu to: (a) Procesy z którymi mamy do czynienia są nieodwracalne, ale należy zrobić dużo więcej, aby je kontrolować i cywilizować. (b) W szczególności istotne jest zwrócenie uwagi na ich aspekty etyczne i prawne. Innymi słowy należy wprowadzić ograniczenia dotyczące tego, jakie dane są zbierane i jak są wykorzystywane. Ograniczenia te muszą mieć formę regulacji prawnych i muszą być ugruntowane w rozważaniach dotyczących etyki. W tym kontekście działanie Google mające umożliwić zniknięcie z sieci uznano za krok we właściwym kierunku.

Jakub Dąbkowski, prezes NetResearch
Działy marketingu i sprzedaży są coraz bardziej zainteresowane gromadzeniem i przetwarzaniem danym o swoich klientach. Proces zbierania danych nie jest prosty, ponieważ angażuje wiele działów w firmie Najpierw zawsze trzeba zastanowić się nad prawnymi aspektami gromadzenia i przetwarzania informacji o klientach i upewnić się że poruszamy się w granicach obowiązującego prawa.
Sam proces wyciągania wniosków z danych jest wieloetapowy. Najpierw stawiane jest pytanie biznesowe, na które szukamy odpowiedzi, np. jakie są korelacje pomiędzy zakupionymi produktami? Kto jest moim najlepszym klientem? Kto może przestać u mnie kupować? Potem dane trzeba wy-ciągnąć z różnych systemów czasami rozproszonych w firmie i przygotować je do analizy. Na podstawie wyciągniętych wniosków można przystąpić do konkretnych działań i jeśli to możliwe do optymalizacji całego procesu
Jarosław Chrupek, Global Data Manager (Corporate Services) Global Process Owner, Corporate MDM, British American Tobacco

W Polsce wyraźnie brakuje doświadczeń z praktycznym wdrażaniem idei i podejścia Master Data Management. Dlatego uczestnicy roundtable bardziej chcieli zadawać pytania i słuchać, niż sami mówić. W szczególności interesowały ich takie kwestie jak to, co powoduje potrzebę zmiany, podjęcia inicjatywy spod znaku MDM. Kto powinien być tutaj sponsorem. Gdzie i jak powinno się zacząć – czy są jakieś obszary w działalności firmy, gdzie jest to najbardziej oczywiste?