Znaczenie danych rośnie wraz z rozwojem AI. Ich niska jakość kosztuje firmy miliony

Rozwój sztucznej inteligencji, platform big tech i usług cyfrowych sprawia, że dane mają coraz większą wartość w gospodarce. Jednocześnie coraz trudniej je uporządkować. Skala ich przetwarzania rośnie szybciej niż możliwości nadzoru i kontroli – zarówno po stronie użytkowników, jak i firm. W efekcie rośnie zapotrzebowanie na narzędzia, które uporządkują dane, jednocześnie ograniczając ryzyka związane z ich niską jakością i halucynacjami.

– W świecie technologii, w którym dziś żyjemy, coraz bardziej rozumiemy wagę danych i naszej prywatności – zarówno w kontekście ochrony, jak i w kontekście konsumenckim czy biznesowym. Wiemy, że dane to jest po prostu produkt, konkretna wartość. Czy jednak potrafimy nimi lepiej zarządzać i skuteczniej je chronić? Nie wydaje mi się – ocenia w rozmowie z agencją Newseria Sylwia Czubkowska, dziennikarka technologiczna.

Jak wynika z badania Eurobarometru dotyczącego „cyfrowej dekady”, 73 proc. Europejczyków uważa, że technologie cyfrowe ułatwiają im codzienne życie. Jednocześnie 83 proc. spodziewa się, że do 2030 roku będą one ważne w kontaktach z rodziną i znajomymi online oraz w dostępie do usług publicznych, a 79 proc. – w korzystaniu z opieki zdrowotnej. Niemal połowa (46 proc.) badanych wskazuje niewłaściwe wykorzystanie danych osobowych jako jeden z problemów o największym wpływie na ich życie, a 45 proc. zwraca uwagę na zagrożenia związane z dezinformacją. Mniej niż połowa ocenia, że ich prawa w środowisku cyfrowym są odpowiednio chronione.

– Mamy obecnie do czynienia z coraz intensywniejszym procesem korzystania z danych i trenowania na nich modeli. Konsumenci niekoniecznie mają świadomość, jak bardzo jest on postępujący. Trudno nam dogonić kolejne, coraz bardziej zaawansowane mechanizmy wykorzystania naszego wizerunku, naszych publikacji i aktywności w sieci, naszej prywatności. To jest ciągły proces uczenia się, doskonalenia się w tym, ale sama świadomość użytkownika nie wystarczy. Jak na każdym rynku potrzebna jest ochrona, potrzebny jest ktoś – urząd, regulator, eksperci – kto będzie pilnował, by organizacje i firmy nie nadużywały możliwości korzystania z naszych danych i wykorzystywania ich do celów biznesowych – tłumaczy Sylwia Czubkowska.

Z badań Eurobarometru wynika, że 81 proc. Europejczyków uważa, że poprawa cyberbezpieczeństwa oraz lepsza ochrona danych online ułatwiłyby im korzystanie z technologii cyfrowych. Jednocześnie 48 proc. deklaruje, że ma kontrolę nad tym, jak wykorzystywane są ich dane w internecie, a 41 proc. jest przeciwnego zdania.

Brak przejrzystości i kontroli nad danymi nie jest problemem wyłącznie użytkowników. Przekłada się również na sposób, w jaki firmy podejmują decyzje marketingowe, często opierając się na niepełnych lub niewiarygodnych informacjach. Choć dostęp do danych jest dziś powszechniejszy niż kiedykolwiek wcześniej i organizacje gromadzą ich coraz więcej, nie zawsze potrafią je właściwie wykorzystać, co utrudnia skuteczne zarządzanie kampaniami.

– Największym wyzwaniem dla marketerów w tym momencie jest wiarygodność danych, wielość wskaźników KPI mierzących skuteczność kampanii i często brak zrozumienia po stronie klientów, które z tych danych są wystarczająco wiarygodne i skorelowane z faktycznym wpływem na sprzedaż. Marketerzy – ale także ich partnerzy, współpracujące agencje – zakopują się przez to w różnego rodzaju danych pochodzących z platform, ale nie potrafią dobrze zrozumieć, na których z nich powinni się skupiać, żeby budować swoje marki,  ich wizerunek czy sprzedaż w sklepie online/offline – wyjaśnia Joanna Okła, senior vice president Clients & Strategy, WPP Media.

Jak wynika z globalnego raportu IBM Institute for Business Value, 43 proc. dyrektorów operacyjnych wskazuje jakość danych jako jeden z najważniejszych priorytetów w organizacji. Jednocześnie ponad jedna czwarta firm szacuje, że traci rocznie ponad 5 mln dol. z powodu niskiej jakości danych, a 7 proc. deklaruje straty przekraczające 25 mln dol. Problem ten często pozostaje niewidoczny i ujawnia się dopiero w postaci utraconych przychodów lub błędnych decyzji biznesowych.

Z powodu niskiej jakości danych, mimo ich rosnącej ilości, przełożenie tego „bogactwa” na konkretne działania i wyniki sprzedażowe jest ograniczone. Dane są wykorzystywane na różnych etapach procesu marketingowego, ale nie zawsze spójnie – od przygotowania strategii, przez planowanie, po realizację kampanii. Bez odpowiedniego przetwarzania danych, ich integracji i analizy kampania marketingowa może nie przynieść oczekiwanych rezultatów. Przykładem może być popularny w ostatnich latach omnichannel, rozumiany nie tylko jako obecność w wielu kanałach, ale przede wszystkim jako ich wzajemne przenikanie się, pozwalające konsumentowi na płynne przechodzenie między światem online a offline.

– Cały marketing od dawna bardzo lubi mówić, że myśli i działa omnichannelowo. Współpracując z wieloma klientami, którzy sprzedają w kanałach offline i online jednocześnie, widzimy, że nie do końca tak jest. Bardzo często marketerzy mają silosowe działy, które wspierają sprzedaż w każdym z tych kanałów oddzielnie, i co więcej, nie rozumieją, w jaki sposób te narzędzia wspierające sprzedaż wpływają na siebie nawzajem. A wpływają w bardzo znaczący sposób – ocenia Joanna Okła.

Znaczenie jakości danych dodatkowo rośnie w kontekście coraz szerszego wykorzystania sztucznej inteligencji – niemal połowa liderów biznesowych wskazuje obawy o jakość, dokładność i wiarygodność danych jako jedną z głównych barier skalowania projektów AI. Modele uczące się na ogólnych danych mogą bowiem generować błędne wnioski, a tym samym obniżać trafność podejmowanych na ich podstawie decyzji biznesowych.

– W świecie, gdzie dostęp do ogólnych modeli sztucznej inteligencji ma praktycznie każdy, to właśnie dane, którymi nakarmimy te modele, stają się wyróżniającym paliwem, które umożliwia markom zwycięstwo na rynku. Już w tej chwili, porównując wyniki modeli, które karmimy wysokiej jakości danymi o konsumentach, danymi, których nie sposób syntetycznie wytworzyć, widzimy ogromną przewagę w jakości odpowiedzi w porównaniu do generycznych modeli, które są trenowane na całym internecie i halucynują – podkreśla Maciej Kawka, vice president, Data Strategy CEE w WPP Media.

Na rynku pojawiają się rozwiązania, które oferują własne źródła wiedzy o konsumentach. Baza Open Panel to rozwijane przez WPP Media jednoźródłowe badanie konsumenckie, które ma dostarczać wysokiej jakości danych o klientach, ich wyborach i zachowaniach. Dzięki oparciu się na jednym źródle danych ma ono służyć minimalizacji błędów interpretacyjnych.

– Open Panel zmienia zasady gry, jeśli chodzi o wykorzystywanie danych konsumenckich w procesie marketingowym – mówi Maciej Kawka. – Jest nie tylko źródłem danych wysokiej jakości, bardzo ważnym dla marketerów, ale jednocześnie jest zintegrowany ze wszystkimi narzędziami do strategii, planowania, aktywacji i pomiaru, na których pracujemy. Dzięki temu jesteśmy w stanie błyskawicznie przenieść wnioski ze strategii do planowania, do etapu zakupów i zminimalizować utratę sygnału, która jest kosztowna dla marketerów. Mając dane najwyższej jakości, wiemy, że decyzje podejmowane na podstawie Open Panel to nie halucynacje, tylko mają realny wpływ na biznes.

O znaczeniu danych, ich transparentności i jakości oraz wpływie na marketing eksperci rozmawiali w trakcie konferencji „Open Intelligence: koniec z marketingową halucynacją”, która odbyła się w Warszawie. Podczas konferencji miała też miejsce oficjalna rynkowa premiera Open Panel.

Źródło: Newseria.pl

Okładka
Ładowanie…
Radio Świnoujście