Czy da się opisać cały świat jednym językiem? Interoperacyjność danych

W czasie cyfrowych transformacji dane płyną nieprzerwanie między firmami, systemami, urządzeniami i algorytmami. Ale czy faktycznie się rozumieją? Pytanie o interoperacyjność danych to nie pytanie techniczne – to pytanie o to, czy potrafimy nadać sens cyfrowemu światu.
Spis treści
- Czym jest interoperacyjność danych?
- Na czym polega idea Cyfrowego Paszportu Produktu i co stoi na drodze do jej realizacji?
- Dlaczego nie da się stworzyć jednego, uniwersalnego modelu danych dla wszystkich przypadków?
- Czy sama zgodność ze standardem wystarczy, by dane były naprawdę zrozumiałe?
- Jakie wnioski płyną z doświadczeń z ISO 20022 – udanego, ale niepełnego standardu?
- Kto kontroluje standardy danych i czy interoperacyjność może prowadzić do monopolizacji?
- Czy sztuczna inteligencja rozwiąże problem interoperacyjności danych?
- Dlaczego człowiek wciąż musi uczestniczyć w procesie uczenia systemów AI?
Akademicka definicja a realia biznesu. Czym właściwie jest interoperacyjność danych?
Pojęcie interoperacyjności danych na pierwszy rzut oka wydaje się proste i intuicyjne. Zgodnie z Ustawą o informatyzacji interoperacyjność to „zdolność różnych podmiotów oraz używanych przez nie systemów teleinformatycznych i rejestrów publicznych do współdziałania na rzecz osiągnięcia wzajemnie korzystnych i uzgodnionych celów, z uwzględnieniem współdzielenia informacji i wiedzy przez wspierane przez nie procesy biznesowe realizowane za pomocą wymiany danych za pośrednictwem wykorzystywanych przez te podmioty systemów teleinformatycznych” – źródło: https://www.gov.pl/web/ia/interoperacyjnosc-w-ustawie-o-informatyzacji
Mówiąc wprost, chodzi o to, aby dane stworzone w jednym miejscu mogły być swobodnie odczytywane i wykorzystywane przez inne systemy i podmioty. I to bez konieczności kosztownych i czasochłonnych zmian technicznych.
Czy ta akademicka wizja interoperacyjności nie brzmi zbyt idealistycznie? W końcu mamy wiele różnych systemów, standardów, użytkowników, a przede wszystkim – interesów biznesowych. Sprawdźmy, co naprawdę przeszkadza we wprowadzeniu prawdziwej interoperacyjności danych. Przyjrzymy się głównym wyzwaniom i ograniczeniom.
Interoperacyjność danych w Cyfrowych Paszportach Produktów
Ostatnio na popularności zyskują Cyfrowe Paszporty Produktów (DPP). Polegają one na tym, że producent danego wyrobu wprowadza do systemu szczegółowe informacje na jego temat. Chodzi tu o dane dotyczące składu materiałów, procesu produkcji i sposobu utylizacji.
Dzięki interoperacyjności te same dane mogłyby być natychmiast dostępne dla wszystkich uczestników rynku. Sklepy, organy regulacyjne i konsumenci mogliby je łatwo odczytać i wykorzystać. W ten sposób dane wspierałyby zarządzanie łańcuchem dostaw, kontrolę jakości i świadome zakupy. Jednak ambitne plany i obiecujące przykłady zderzają się z surową rzeczywistością implementacji. Czy rzeczywiście jesteśmy w stanie stworzyć uniwersalny język danych, który będzie zrozumiały dla wszystkich i w każdej sytuacji? Próba osiągnięcia prawdziwie powszechnej interoperacyjności danych szybko natrafia na fundamentalne bariery. Są to ogromna liczba danych i złożoność świata, który chcielibyśmy opisać.
Złożoność jako wróg uniwersalnych modeli danych
Wyobraźmy sobie zadanie stworzenia jednolitego modelu danych dla wyposażenia sali operacyjnej. Początkowo mogłoby się wydawać to wykonalne: spis narzędzi, ich liczba, podstawowe parametry każdego z nich. Jednak, gdy zaczniemy dodawać kolejne elementy, złożoność rośnie lawinowo. Do spisu narzędzi musimy dołączyć spis sprzętów medycznych, a następnie informacje o załodze niezbędnej do standardowych operacji. Potem powinniśmy stworzyć katalog wszystkich przeprowadzanych procedur, wraz z listą wymaganych narzędzi i sprzętów potrzebnych podczas każdej z nich. W końcu chcielibyśmy opisać cały szpital: jego strukturę, personel, zasoby, procedury. A to dopiero dane z jednego szpitala.
Gdy przeniesiemy tę analogię na cały system opieki zdrowotnej, a następnie na wszystkie dziedziny życia i gospodarki, stajemy przed zadaniem nie do wykonania. Musielibyśmy stworzyć uniwersalny słownik i model danych, który opisywałby każdy aspekt rzeczywistości. Przypominałoby to próbę skompilowania trzydziestotomowej encyklopedii. A to wszystko tylko po to, by zorientować się, gdzie szukać informacji o konkretnym narzędziu na konkretnej sali operacyjnej. Samo przeszukiwanie tak ogromnego i złożonego zbioru stałoby się praktycznie niemożliwe.
Gdy przyjrzymy się tej ogromnej złożoności, zobaczymy, że idea powszechnej interoperacyjności wydaje się utopią. Dlatego na ambitne projekty, takie jak wyżej wspomniane paszporty produktowe, należy spojrzeć z pesymizmem. Ich twórcy mają szczytne intencje – chcą zwiększyć transparentność i ułatwić dostęp do informacji. Jednak ta próba stworzenia jednolitego standardu opisu dla nieskończonej różnorodności produktów może skończyć się fiaskiem. Właśnie ze względu na niemożliwą do opanowania złożoność.
Między standardem a zrozumieniem – czego naprawdę potrzeba do interoperacyjności?
Gdy szukamy uchwytnego wyjaśnienia idei interoperacyjności, naturalnie przychodzi nam na myśl zastosowanie standardu. Interoperacyjność oznacza, że różne systemy mogą się wzajemnie rozumieć. Do tego potrzebne są wspólne reguły. Gdyby wszystko działało idealnie, dane zapisane w jednym systemie byłyby automatycznie zrozumiałe. Mogłyby być też bez problemu wykorzystywane przez inne systemy. W praktyce jednak, bez precyzyjnie zdefiniowanego i wspólnie stosowanego standardu, taka wymiana informacji jest trudna lub wręcz niemożliwa.
Dobrym przykładem tego ograniczenia są znane nam kody kreskowe. To pewien standard – umówiony sposób kodowania informacji za pomocą sekwencji kresek i spacji. Dzięki temu skaner w sklepie może odczytać zakodowaną cenę produktu czy jego identyfikator. Kody kreskowe rozwiązują konkretny, wąski problem. Pozwalają na automatyczne odczytywanie określonych danych. Jednak nawet ten system ma swoje ograniczenia. Zakodowaną informację można technicznie odczytać, ale bez znajomości kontekstu i znaczenia poszczególnych części jest ona mało przydatna. To tak, jakby znać alfabet, ale nie rozumieć języka.
Dlatego interoperacyjność to coś więcej niż zgodność techniczna. To umiejętność rozumienia danych niezależnie od ich źródła. Standard to często rezultat uzgodnień w wąskim gronie. Dotyczy on konkretnego problemu. Tymczasem prawdziwa interoperacyjność wymaga czegoś więcej. Potrzebne jest wspólne rozumienie znaczenia danych. Dzięki temu nie trzeba za każdym razem wyjaśniać, „co autor miał na myśli”. Standaryzacja formatu to dopiero pierwszy krok.
ISO 20022 – standard dla płatności, ale z ograniczeniami
Gdy mówimy o standaryzacji w konkretnych obszarach, nie sposób pominąć ISO 20022. To globalny standard, stworzony, aby ujednolicić wymianę danych w płatnościach. Jego celem jest, aby różne instytucje finansowe mogły ze sobą współpracować i sprawnie przesyłać pieniądze. Ma on też zwiększyć wiarygodność transakcji oraz dostarczyć bogatszą informację o beneficjencie i nadawcy.
Wprowadzenie ISO 20022 przyniosło niewątpliwe korzyści. Standard dokładnie określa dodatkowe pola danych, takie jak kwota, waluta czy dane beneficjenta. Dzięki temu transakcje stały się bardziej przejrzyste i łatwiejsze do śledzenia. ISO 20022 pozwala udokumentować je w sposób bardziej ustrukturyzowany. Ułatwia to sprawdzenie, czy są legalne i zgodne z przepisami.
Nawet tak zaawansowany standard jak ISO 20022 nie doprowadził do pełnej interoperacyjności systemów. W jego ramach przewidziano miejsce na dołączanie dodatkowej dokumentacji transakcji w niemal dowolnym formacie. To elastyczne podejście, choć z pozoru korzystne, doprowadziło do powstawania „podgrup” standardów. Przykładem są banki skupione wokół HSBC (Hongkong and Shanghai Banking Corporation). Umówiły się one na konkretny format przekazywania dokumentacji handlowej w określonym miejscu komunikatu ISO 20022. Inne grupy banków przyjęły odmienne konwencje. Gdy transakcja z banku stosującego standard HSBC trafia do banku z innej grupy, jego system może mieć w rezultacie problem z interpretacją załączonej dokumentacji. Dzieje się tak, choć podstawowa struktura komunikatu ISO 20022 jest zrozumiała.
Interoperacyjność a ryzyko monopolizacji
Dążenie do interoperacyjności w konkretnych sektorach może prowadzić do koncentracji władzy. Gdy jedna organizacja ustala główne modele danych, zyskuje wpływ na cały rynek. Może wtedy narzucać swoje warunki innym. Dobrym przykładem jest SWIFT – dominująca sieć komunikacyjna banków. To właśnie ona odegrała kluczową rolę we wprowadzeniu standardu ISO 20022 w płatnościach międzynarodowych.
SWIFT jako główny propagator tego standardu nie tylko ułatwił jego wdrożenie, lecz także zyskał wpływ na jego dalszy rozwój. Każda zmiana w schemacie ISO 20022 wymaga od banków dostosowania systemów, co wiąże się z kosztami i uzależnieniem od decyzji jednego operatora. Aby ograniczyć tę złożoność, na rynku pojawiły się tzw. huby – pośrednicy, którzy tłumaczą dane między różnymi standardami. W świecie finansów taką funkcję od lat pełnią banki korespondenci.
Choć huby są praktycznym rozwiązaniem problemu interoperacyjności, nie są pozbawione wad. Wprowadzają dodatkowe koszty, powodują opóźnienia i większą złożoność w przepływie danych. Pełne dostosowanie wszystkich uczestników rynku do jednego globalnego standardu często okazuje się zbyt kosztowne i trudne. Dlatego w praktyce powstają scentralizowane rozwiązania lub sieci hubów. Balansują one zazwyczaj między elastycznością a kontrolą.
Czy AI zbawi interoperacyjność?
Przy ogromnej złożoności danych często pokładamy nadzieję w sztucznej inteligencji (AI). Modele uczenia maszynowego potrafią rozpoznawać wzorce i porządkować informacje. Na pierwszy rzut oka wygląda to na dobrą drogę do osiągnięcia interoperacyjności na niespotykaną dotąd skalę. Może się nam wydawać, że AI, która analizuje ogromne zbiory danych z różnych źródeł, będzie w stanie samodzielnie stworzyć uniwersalne modele i słowniki. Dzięki temu ominie ograniczenia ludzkiego rozumienia i ręcznej integracji danych.
Jednak należy podchodzić do tej wizji z dużą dozą sceptycyzmu. Istnieje realna obawa, że poleganie wyłącznie na AI w tworzeniu modeli danych prowadzących do interoperacyjności może przynieść więcej szkody niż pożytku. Wyobraźmy sobie sytuację, w której AI tworzy złożony model danych. Pokazuje on, jak różne elementy – na przykład klienci, zamówienia i produkty – są ze sobą powiązane. Model ten może być tak skomplikowany i obszerny, że stanie się niezrozumiały nawet dla specjalistów z danej dziedziny.
W takiej sytuacji pojawia się pytanie o weryfikację. Kto będzie w stanie sprawdzić poprawność i adekwatność modelu stworzonego przez AI? Jeśli model jest zbyt złożony, by człowiek mógł go w pełni poznać i zrozumieć, ryzykujemy, że będzie on zawierał błędy, nieścisłości lub arbitralne powiązania. Takie elementy mogą w konsekwencji doprowadzić do błędnej interpretacji danych. Opieranie się na takich nieweryfikowalnych modelach w procesach biznesowych może prowadzić do poważnych konsekwencji i być „drogą donikąd”. Zamiast ułatwić wymianę i zrozumienie danych, możemy stworzyć jeszcze większy chaos. Będzie on oparty na pozornie inteligentnych, ale w praktyce niekontrolowanych konstrukcjach.
O przygotowaniu danych na erę AI przeczytasz w naszym artykule: „Jak przygotować dane na erę AI?”.
Ryzyko stronniczości – gdy AI przejmuje nasze błędy
Podczas wdrażania systemów opartych na sztucznej inteligencji niezbędny jest człowiek, zwłaszcza w fazie uczenia i weryfikacji. Obserwujemy już powstawanie nowych stanowisk pracy. Zadaniem zatrudnionych na nich ludzi jest jedynie ocena treści generowanych przez AI, sprowadzająca się często do prostego „tak” lub „nie”. Ten proces ręcznego etykietowania danych ma na celu ukierunkowanie AI i zapewnienie jak najwyższej jakości jej działania.
Poleganie na człowieku w uczeniu maszynowym wiąże się z pewnym fundamentalnym ograniczeniem. AI nigdy nie będzie mądrzejsza niż zbiór danych, na którym została wytrenowana. A co za tym idzie – niż zbiorowość ludzi, która te dane stworzyła lub zweryfikowała. Jeśli próbka danych jest niekompletna, zawiera błędy lub odzwierciedla stronnicze opinie, te niedoskonałości zostaną nieuchronnie przeniesione na model AI.
Szczególnym wyzwaniem jest wybór odpowiedniej grupy ludzi do uczenia AI. Jest to szczególnie trudne, gdy tworzymy uniwersalne modele danych. Jak dobrać reprezentatywną grupę, która będzie różnorodna pod względem wiedzy, doświadczeń i punktu widzenia? Jeśli do uczenia zaangażujemy tylko ekspertów lub osoby o podobnych poglądach, AI przejmie ich ograniczenia i uprzedzenia. W takiej sytuacji nie stworzymy obiektywnego i uniwersalnego narzędzia do interpretacji danych. Zamiast tego powstanie system, który pokazuje tylko wycinek rzeczywistości. Może on utrwalać istniejące błędy.
Podsumowanie
Interoperacyjność danych to znacznie więcej niż zgodność techniczna. Jest to próba stworzenia wspólnego języka, który umożliwi prawdziwe zrozumienie informacji pomiędzy systemami, organizacjami i technologiami. Jednak im bardziej złożony świat próbujemy opisać, tym szybciej napotykamy granice uniwersalnych modeli.
Przykład Cyfrowych Paszportów Produktów pokazuje, że idea transparentności i łatwego dostępu do danych jest kusząca. Jej realizacja napotyka jednak przeszkody – różnorodność potrzeb, formatów danych i ich interpretacji. Ani standardy, ani AI nie gwarantują więc sukcesu. Potrzebna jest jeszcze ludzka kontrola i porozumienie co do znaczenia danych.
Istotne jest nie tylko to, czy dane się wymieniają, ale jak są interpretowane. Skuteczna wymiana danych wymaga elastyczności, współpracy i świadomego podejścia. To właśnie zrozumienie, nie format, decyduje o wartości danych.