RAPORT Z BADAŃ
Technology Vision 2024
15-minutes read
3 stycznia 2024
RAPORT Z BADAŃ
15-minutes read
3 stycznia 2024
W najbliższych latach firmy będą dysponowały wachlarzem technologii, które odegrają istotną rolę w transformacji kluczowych obszarów w przedsiębiorstwach. Ich wdrożenie pozwoli również odkryć nowe horyzonty potencjału człowieka. „Wcześni użytkownicy” oraz wiadące firmy już rozpoczeli wyścig ku nowej erze produktywności, umiejętności i możliwości. Poszczególne strategie różnią się, ale mają jeden wspólny mianownik – technologia staje się coraz bardziej ludzka.
To paradoksalne, bo czy technologia nie została stworzona przez i dla ludzi? Tworzenie narzędzi, które zwiększają nasze możliwości fizyczne i poznawcze jest wyjątkową umiejętnością, definiującą – zdaniem niektórych – gatunek ludzki.
Mimo to narzędzia, które tworzymy, są często zdecydowanie nieludzkie. Pełnią role i realizują zadania nieosiągalne dla człowieka, zmieniając radykalnie nasze życie. Samochody zwiększyły naszą mobilność, dźwigi umożliwiły budowę drapaczy chmur i mostów, a dzięki różnym odtwarzaczom możemy tworzyć, dystrybuować i słuchać muzyki.
Nieludzka natura technologii często stanowi jej wadę. Używanie manualnych narzędzi może prowadzić do zapalenia stawów. Lata spędzone przed monitorami mogą przyspieszyć pojawienie się problemów ze wzrokiem, a nawigacja – rozpraszać nas podczas jazdy. Staramy się tworzyć narzędzia bardziej ergonomiczne i łatwiejsze w użyciu, jednak wciąż skupiamy się na tym, jak usprawnić maszynę, zamiast rozwijać jej ludzki potencjał.
Dziś po raz pierwszy w historii mamy silne dowody świadczące o zmianie kierunku. Oznacza to nie tyle odwrót od technologii, ile nadanie jej bardziej ludzkiego charakteru. Bardziej intuicyjną technologię – zarówno w kontekście jej projektowania, jak i charakteru – cechuje inteligencja zbliżona do ludzkiej oraz łatwość integracji z każdym obszarem naszego życia.
Weźmy pod uwagę wpływ generatywnej sztucznej inteligencji na otaczający nas świat. Chatboty, takie jak ChatGPT i Bard, okazały się siłą napędową, dzięki której technologia stała się bardziej intuicyjna, inteligentna oraz dostępna. Podczas gdy dawniej AI służyła do automatyzacji i realizacji rutynowych zadań, dziś skupia się na argumentacji. Demokratyzacja technologii oraz wiedzy specjalistycznej – dotychczas zarezerwowanych dla wysoko wykwalifikowanych lub zamożnych osób – zmienia nasze podejście do pracy.
Potencjalnie generatywna AI może robić znacznie więcej niż tylko realizować bieżące zadania. Zaczyna tansformować organizacje i nawet rynki.
Dążenie do bardziej ludzkiego charakteru technologii nie dotyczy wyłącznie AI. Adresuje wiele problemów w relacji człowieka z technologią, torując drogę do zwiększenia ludzkiego potencjału.
Technologia o ludzkim charakterze umożliwi dotarcie do nowych odbiorców i poszerzy dostęp do wiedzy, umożliwiając nieustanne innowacje. Pomyśl o ludziach dotychczas pozbawionych dostępu do technologii którzy przyłączą się do cyfrowej rewolucji. Większa intuicyjność technologii pozwoli uwolnić ich potencjał jako nowych klientów i pracowników.
95%
dyrektorów zarządzających uważa, że bardziej ludzki charakter technologii zwiększy możliwości rozwoju biznesu w każdej branży.
Liderzy muszą zadać sobie już dobrze znane pytania o to, które produkty i usługi skalować, jakimi nowymi danymi dysponują i jakie podjąć działania transformacyjne. Zmierzą się również z pytaniami, których być może nigdy się nie spodziewali. Jakiego nadzoru potrzebują nad sztuczną inteligencją? Kto przejdzie przez cyfrową transformację? Jakie obowiązki mamy wobec członków naszego ekosystemu?
Ludzki charakter technologii nie dotyczy jedynie jej funkcji – to zobowiązanie na przyszłość. Technologie stworzone z myślą o ludziach staną się kluczowe dla firm, które pracują nad transformacją swoich cyfrowych ekosystemów. Coraz więcej firm dostrzega możliwości nowych technologii w zakresie optymalizacji cyfrowych ekosystemów. Cyfrowe doświadczenia, przetwarzanie i analiza danych, produkty będą się zmieniać wraz z rozwojem i skalowaniem m.in. takich technologii, jak generatywna sztuczna inteligencja i obliczenia przestrzenne.
Na etapie transformacji firmy mają możliwość zdefiniowania strategii ukierunkowanej na maksymalizację ludzkiego potencjału i niwelowanie konfliktów na linii człowiek–technologia. Przyszłość będzie napędzana przez sztuczną inteligencję, ale musi być zaprojektowana z myślą o ludzkiej inteligencji. Ponieważ technologie nowej generacji oferują firmom więcej możliwości, każdy wybór biznesu nabiera większego znaczenia. Świat Cię obserwuje. Staniesz się wzorem do naśladowania czy znakiem ostrzegawczym?
W ubiegłym roku raport Accenture Technology Vision opisywał synergię atomów i bitów, tworzącą fundamenty nowej rzeczywistości. Przedstawiał świat, w którym zanikające granice pomiędzy cyfrową i fizyczną rzeczywistością umożliwiły nowy wymiar innowacji technologicznych oraz wyjaśniały, w jaki sposób staną się one warunkiem kontynuacji działalności przedsiębiorstw w przyszłości.
Tegoroczny raport Technology Vision skupia się na głównych odbiorcach nowej rzeczywistości, której fundamenty już powstały, a mianowicie ludziach. Cztery trendy na 2024 rok wskazują kluczowe wymiary, w których technologia staje się bardziej ludzka oraz opisują, jak organizacje mogą się przygotować na zmiany.
Świat zbliża się prawdopodobnie do największego punktu zwrotnego w historii technologii, a przedsiębiorstwa i decyzje ich liderów odegrają kluczową rolę w kształtowaniu przyszłości.
Kolejne fale rozwoju i innowacji nie zawsze będą oznaczać zmiany na lepsze. Pojawi się więcej okazji do oszustw, rozprzestrzeniania dezinformacji oraz naruszeń bezpieczeństwa. Projektowanie rozwiązań o ludzkich możliwościach, ale bez ludzkiej inteligencji – lub wręcz sumienia – może negatywnie wpłynąć zarówno na wyniki naszego przedsiębiorstwa, jak i dobro społeczeństwa.
W czasach humanizacji technologii wszystkie usługi i produkty wprowadzane na rynek mają potencjał transformacji ludzkiego życia, wzmaciania społeczności, a także napędzania zmian – zarówno pozytywnych, jak i negatywnych. Przedsiębiorstwa, jak zawsze, będą musiały zrównoważyć dynamiczność w działaniu z koniecznością zachowania ostrożności, jednocześnie zdając sobie sprawę, że ich konkurenci oraz inne kraje mogą nie podzielać ich obaw lub nie stosować podobnych środków ostrożności.
W dążeniu do humanizacji technologii kwestii bezpieczeństwa nie należy postrzegać jako wymóg lub ograniczenie, lecz jako nieodzowny element w drodze do sukcesu oraz czynnik budujący zaufanie między ludźmi a technologią. Projektowanie rozwiązań technologicznych nie może przyćmić ani być w sprzeczności z istotą człowieczeństwa. Tę koncepcję nazywamy pozytywną inżynierią. W ciągu kilku ostatnich lat kwestie etyczne, takie jak inkluzywność, dostępność, zrównoważony rozwój, bezpieczeństwo na rynku pracy, ochrona własności intelektualnej, zaczęły odgrywać istotną rolę w branży technologicznej. Każda z tych kwestii sprowadza się do pytania, w jaki sposób zrównoważyć to, co możemy osiągnąć dzięki technologii, z tym, czego pragną ludzie.
To przełomowy moment zarówno dla technologii, jak i ludzi, a świat czeka na Twój wkład w kształtowanie przyszłości.
93%
dyrektorów zarządzających uważa, że przy obecnym tempie rozwoju technologii kluczowe będzie celowe wprowadzenie innowacji.
Zmienia się nasze podejście do danych, a wraz z nim sposób, w jaki myślimy, pracujemy oraz wchodzimy w interakcje z technologią. Zachodzą rewolucyjne zmiany w systemach funkcjonowania przedsiębiorstw cyfrowych.
Rola sztucznej inteligencji z „bibliotekarza” zmienia się obecnie w „doradcę”. Zamiast przeglądania wyników researchu ludzie zadają chatbotom AI pytania. Przykład? ChatGPT, uruchomiony w listopadzie 2022 roku przez OpenAI, stał się najszybciej rozwijającą się aplikacją wszech czasów. Duże modele językowe (LLM) istniały już od dawna, ale możliwości ChatGPT w zakresie udzielania odpowiedzi w bezpośredniej konwersacji z użytkownikiem okazały się przełomem.
Dane są jednym z najważniejszych czynników wpływających na współczesną branżę IT. Nowa generacja chatbotów stanowi prawdziwą rewolucję dzięki umiejętności syntetyzowania ogromnych ilości informacji w celu udzielenia odpowiedzi i porad, przetwarzania danych w różnych formatach, zapamiętywania historii rozmów, a nawet sugerowania użytkownikom kolejnych zapytań. Docelowo chatboty na bazie modeli LLM będą pełnić rolę doradców, zapewniając wszystkim pracownikom dostęp do gruntownej wiedzy na temat przedsiębiorstwa. Dzięki temu firmy będą mogły w pełni wykorzystać biznesowy potencjał danych i rozwijać działalność w oparciu o model data-driven business (przedsiębiorstwa opartego na danych).
Firmy posiadają wartościowe i unikalne dane, które chcą wykorzystywać w interesie klientów, pracowników, partnerów i inwestorów. Jednak wiele z nich trudno wyodrębnić z powodu niewłaściwego wyszukiwania, nieodpowiednich zapytań, a także silosów i zagęszczenia danych. Dla współczesnych przedsiębiorstw opartych na danych to istotna wartość, którą mogłyby odblokować dzięki generatywnej sztucznej inteligencji.
Jednak prawdziwa rewolucja nie dotyczy jedynie sposobu dostępu do danych, ale przede wszystkim perspektywy transformacji całej branży IT. Co jeśli interfejs każdej aplikacji i platformy cyfrowej zastąpiłyby chatboty oparte na generatywnej AI? I jeśli za ich pośrednictwem prowadzilibyśmy interakcję z każdą platformą, łącznie z czytaniem, pisaniem i analizą danych?
Aby maksymalnie wykorzystywać generatywną sztuczną inteligencję i rozwijać przedsiębiorstwo przyszłości w oparciu o dane i technologię AI, firmy muszą wprowadzić gruntowne zmiany w obszarze strategii technologicznej, obejmujące m.in.: sposób gromadzenia i organizacji danych, kształtowanie ich architektury, sposób wdrażania narzędzi technologicznych oraz optymalizację ich funkcji. Działania z zakresu szkoleń personelu, debiasingu AI (niwelowania uprzedzeń) oraz nadzoru nad sztuczną inteligencją muszą być uwzglęnione od samego początku.
95%
dyrektorów zarządzających uważa, że generatywna sztuczna inteligencja skłoni przedsiębiorstwa do modernizacji ich systemów IT.
Nowe technologie i metody mogą pomóc firmom wzmocnić ekosystemy danych i przygotować się do działania w modelu data-driven business. Niektóre przedsiębiorstwa podjęły już kroki w kierunku modernizacji strategii z zakresu danych, jednak wciąż dla wielu firm kwestia zarządzania wiedzą stanowi wyzwanie, a ich systemy są niezoptymalizowane. Jedno jest pewne – współpraca z doradcami AI, opartymi na dużych modelach językowych (LLM), będzie wymagać od przedsiębiorstw łatwiej dostępnych i bardziej kontekstowych danych niż kiedykolwiek wcześniej.
Jednym z najważniejszych rozwiązań w obszarze zarządzania wiedzą jest graf wiedzy (Google Knowledge Graph). To model danych o strukturze grafu, pozwalający na zbieranie dużej ilości danych i zrozumienie relacji między nimi. To narzędzie, które nie tylko umożliwia agregowanie informacji z większej liczby źródeł i wspiera ich lepszą personalizację, ale również ułatwia dostęp do danych poprzez wyszukiwanie semantyczne.
Aby zaprezentować potencjał grafu wiedzy i wyszukiwania semantycznego, przyjrzyjmy się wdrożeniu tego rozwiązania przez firmę Cisco Systems. Dział sprzedaży Cisco, podobnie jak w przypadku wielu globalnych organizacji, dysponował ogromną ilością danych. Firma miała jednak trudności z indeksacją i dostępem do dokumentów z uwagi na brak metadanych, dlatego zwróciła się do Neo4j z prośbą o wsparcie w stworzeniu grafu wiedzy metadanych.
Mimo iż Cisco i Neo4j nie bazowały na modelach LLM, wykorzystały przetwarzanie języka naturalnego do stworzenia ontologii i funkcji maszynowego tagowania, aby przypisywać metadane dokumentom przechowywanym następnie w bazie danych grafu. Dzięki optymalizacji systemu zrządzania wiedzą Cisco udało się skrócić o połowę czas, który pracownicy działu sprzedaży poświęcali na wyszukiwanie informacji, zaoszczędzając ponad cztery miliony godzin pracy rocznie.
Oprócz grafów wiedzy istotne będzie również wykorzystanie innych rozwiązań z zakresu zarządzania danymi. Siatki danych i sieci szkieletowe to rozwiązania dotyczące mapowania i porządkowania informacji, które firmy powinny wziąć pod uwagę w procesie aktualizacji architektury danych.
Wykorzystanie przez firmy grafów wiedzy, siatek i sieci szkieletowych danych byłoby ogromnym krokiem naprzód w zakresie optymalizacji systemów zarządzania wiedzą. Jednak pójście o krok dalej, w kierunku przejścia od modelu „bibliotekarza” do modelu „doradcy”, umożliwi kreowanie dodatkowej wartości. Wyobraź sobie, że na każdej stronie internetowej i w każdej aplikacji Twoi pracownicy, zamiast korzystać z paska wyszukiwania, mogliby zadawać pytania w języku naturalnym i uzyskiwać jasne odpowiedzi. Dysponując łatwo dostępną i kontekstową bazą danych, przedsiębiorstwa mogą zacząć budować takie rozwiązania. Przyrzyjmy się bliżej kilku opcjom.
Po pierwsze, firmy mogą szkolić od podstaw własne modele językowe (LLM), choć jest to rzadkie podejście ze względu na koszty i czas. Liderami w tym obszarze są firmy specjalizujące się w sztucznej inteligencji, takie jak OpenAI, Google, Meta, AI21 oraz Anthropic.
Druga możliwość to dopasowanie gotowych modeli LLM, co oznacza adaptację jednego z dostępnych modeli LLM poprzez jego wyszkolenie na podstawie własnych danych. Główni dostawcy usług chmurowych, tacy jak Amazon AWS, Microsoft Azure i Google Cloud, świadczą usługi w zakresie wsparcia przedsiębiorstw w wyszkoleniu własnej wersji bazowego modelu AI na podstawie danych, którymi dysponują firmy, a także ich integracji z aplikacjami firmy. Choć ta opcja wymaga znacznie mniejszej ilości zasobów niż wyszkolenie modelu LLM od podstaw, to jednak nie gwarantuje dostępności najświeższych danych. To rozwiązanie korzystne w przypadku obszarów, w których informacje w czasie rzeczywistym nie mają decydującego znaczenia, takich jak działania kreatywne związane z projektowaniem i marketingiem.
Coraz większą popularność zyskuje również opcja wykorzystania mniejszych modeli językowych (Small Language Models, SLM) do specjalistycznych zastosowań. SLM, takie jak Chinchilla od DeepMind czy Alpaca stworzona na Uniwersytecie Stanforda, wymagające znacznie mniejszej ilości zasobów obliczeniowych, już dziś konkurują z większymi modelami językowymi. Mniejsze modele językowe są również bardziej efektywne – generując niższe koszty i mniejszy ślad węglowy. Dodatkowo ich wyszkolenie trwa krócej i można z nich korzystać za pośrednictwem mniejszych, brzegowych urządzeń (edge devices).
Obecnie jednak jedną z najpopularniejszych metod projektowania doradców AI jest dopasowanie wstępnie wyszkolonych modeli LLM poprzez dostarczanie im istotnych informacji, specyficznych dla dziedziny związanej z danym zastosowaniem. Zazwyczaj odbywa się to poprzez wykorzystanie systemu RAG (Retrieval Augmented Generation). Jak wskazuje nazwa systemu, RAG łączy wyszukiwanie informacji z możliwościami modeli generatywnych AI, które mogą być samodzielnie wyszkolone lub wykorzystywane bez dodatkowej konfiguracji za pośrednictwem interfejsu API.
Przygotowanie modelu LLM poprzez uczenie kontekstowe i system RAG zajmuje znacznie mniej czasu i mocy obliczeniowej. Ponadto wymaga znacznie mniej wiedzy specjalistycznej niż szkolenie modelu LLM od podstaw lub jego dostrojenie. Ta opcja sprawdza się najlepiej w zastosowaniach wymagających aktualnych informacji, choć wciąż może się okazać konieczna weryfikacja ich poprawności.
Biorąc pod uwagę niezwykłe tempo rozwoju generatywnej AI oraz modeli LLM, w momencie publikacji tego raportu mogą już istnieć nowe dobre praktyki w zakresie projektowania doradców opartych na generatywnej AI. Niezależnie jednak od wybranej metody jedna rzecz pozostaje niezmienna – Twoje dane muszą być wiarygodne i kontekstowe, w przeciwnym razie doradca AI nigdy nie spełni pokładanych w nim nadziei.
Przede wszystkim firmy, które zaczynają badać nowe możliwości wynikające z wykorzystania doradców AI opartych na modelach LLM, muszą również rozumieć związane z tym zagrożenia.
Weźmy na przykład halucynacje chrakterystyczne dla modeli LLM. Ponieważ są one wyszkolone do udzielania odpowiedzi opartych na prawdopodobieństwie z dużym stopniem pewności, zdarzają się sytuacje, w których doradcy AI przekazują nieprawidłowe informacje. W miarę rozwoju aplikacji opartych na modelach LLM – które odgrywają coraz większą rolę w zakresie dostępu do informacji i ich przekazywania, a także sposobów interakcji i integracji oprogramowania – konsekwencje halucynacji AI mogą być bardzo poważne. Mówiąc wprost – brak pewności, czy otrzymana informacja jest prawdziwa, to poważny problem.
Halucynacje są prawdopodobnie najbardziej znanym zagrożeniem związanym z wykorzystaniem chatbotów opartych na modelach LLM w przedsiębiorstwach, ale niejedynym. W przypadku korzystania z szeroko dostępnych modeli LLM dane poufne muszą być starannie chronione, aby uniknąć ich ujawnienia. Z kolei w przypadku modeli LLM wykorzystywanych przez organizacje do danych nie powinni mieć dostępu nieupoważnieni pracownicy. Koszt obliczeniowy to kolejny obszar wymagający odpowiedniego zarządzania, jednak najistotniejsze, co należy podkreślić, to fakt, że tylko nieliczni eksperci posiadają odpowiednią wiedzę, aby prawidłowo wdrażać rozwiązania wykorzystujące modele LLM.
Przedstawione wyzwania nie powinny zniechęcać firm do wdrażania nowych technologii, ale stanowić motywację do stosowania odpowiednich mechanizmów kontroli.
Dane trafiające do modeli LLM poprzez szkolenie lub prompty powinny być wysokiej jakości, tj. aktualne, dobrze oznaczone i bez biasu; przekazywane dobrowolnie i proaktywnie przez klientów (zero-party) lub zebrane bezpośrednio przez firmę (first-party). W celu ochroy danych osobowych i poufnych należy wdrożyć standardy bezpieczeństwa. Należy również wprowadzić uprawnienia dostępu do danych, aby upoważnić użytkowników do korzystania z kontekstowych danych.
Wyniki uzyskane od chatbota generatywnej AI oprócz poprawności powinny być również wytłumaczalne i dopasowane do profilu działalności marki. Dzięki odpowiednim zabezpieczeniom chatbot nie będzie udzielał odpowiedzi zawierających wrażliwe dane lub obraźliwe słowa, a także będzie odrzucał zapytania wykraczające poza jego możliwości. Co więcej, jego odpowiedzi mogą przekazywać niepewność i proponować źródła do ich weryfikacji.
Chatboty oparte na generatywnej AI powinny podlegać stałemu nadzorowi człowieka i nieustannym testom. Firmy powinny inwestować w rozwój etycznej sztucznej inteligencji i opracować podstawowe standardy, których zobowiązują się przestrzegać. Powinny także regularnie zbierać informacje zwrotne od użytkowników i zapewniać szkolenia dla pracowników.
Nadszedł czas, aby czerpać korzyści ze współpracy z doradcami AI opartymi na modelach LLM.
W przedsiębiorstwach chatboty oparte na generatywnej AI zapewnią pracownikom i klientom nie tylko dostęp do wiedzy, ale także odpowiedzi na zapytania w danym kontekście dotąd nieosiągalne. Usprawnią również m.in. proces dzielenia się wiedzą w firmie i obsługę klienta, a także przyczynią się do zwiększenia możliwości produktowych.
Jeśli chodzi o możliwości zewnętrzne, chatboty generatywnej AI zrewolucjonizują sposób, w jaki informacje o przedsiębiorstwie będą wyszukiwane przez potencjalnych klientów, zainteresowanych danym produktem lub usługą. Już teraz użytkowanicy internetu zastępują tradycyjne wyszukiwarki botami opartymi na generatywnej AI, takimi jak Microsoft Bing Chat, lub korzystają z możliwości szerszego wyszukiwania dzięki rozwiązaniu Google SGE, dostarczającym przegląd informacji i odpowiedzi na wyszukiwania. Użytkownicy otrzymują bezpośrednie odpowiedzi na zapytania w języku naturalnym. I chociaż podane są źródła i udostępnione są wyniki wyszukiwania, to pytanie brzmi: czy ktoś faktycznie je zweryfikuje?
Jeśli nie, to co to oznacza dla stron internetowych, w szczególności firmowych? W jaki sposób przedsiębiorstwa mogą zadbać o to, aby klienci otrzymywali prawidłowe informacje, których szukają i potrzebują? Lub te najbardziej aktualne z informacją na temat źródła ich pochodzenia? Przedsiębiorstwa mają okazję, aby całkowicie zmienić sposób, w jaki docierają do klientów.
Rozwój generatywnej sztucznej inteligencji to prawdziwy przełom w dziedzinie danych i oprogramowania. Modele LLM zmieniają nasze relacje z informacjami, a wraz z nimi wszystko – od sposobu, w jaki przedsiębiorstwa docierają do klientów, po wspieranie pracowników i partnerów biznesowych – może ulec zmianie. Liderzy już dziś podejmują działania na drodze do nowej ery biznesu opartego na danych – przed nami przełom w sposobie funkcjonowania cyfrowego biznesu.
Oprócz opisanych kwestii związanych z bezpieczeństwem w zakresie tego trendu firmy powinny się również zastanowić, w jaki sposób doradcy AI bazujący na modelach LLM mogą zmienić dynamikę danych swoich użytkowników.
Mamy szansę zredefiniować proces wyszukiwania informacji i przywrócić zaufanie klientów do firm.
Teraz przedsiębiorstwa mogą same zarządzać swoimi danymi i firmową bazą wiedzy. Wykorzystanie doradców cyfrowych pozwoli im na przechowywanie, zabezpieczenie, analizowanie i rozpowszechnianie informacji bezpośrednio wśród klientów. To duża odpowiedzialność – Twoja firma musi zagwarantować bezpieczeństwo danych, zapewniając jednocześnie odpowiedzi z wysokim poziomem pewności. Jest to również ogromna szansa – wymiana informacji bez pośrednictwa dostawców wyszukiwarek spowoduje, że firmy staną się bezpośrednim źródłem wiarygodnych informacji, odzyskując zaufanie swoich klientów.
Sztuczna inteligencja wykracza poza swoją dotychczasową rolę w zakresie wsparcia użytkowników, obejmując swoim działaniem coraz więcej aspektów naszej rzeczywistości. W ciągu następnej dekady nastąpi rozwój obszernych ekosystemów agentów AI – dużych sieci wzajemnie połączonych systemów sztucznej inteligencji, które skłonią przedsiębiorstwa do opracowania zupełnie nowych strategii w zakresie analiz i automatyzacji.
Obecnie większość strategii dotyczących AI skupia się głównie na wsparciu użytowników w wykonywaniu konkretnych zadań i funkcji. Sztuczna inteligencja realizuje samodzielne działania, nie współpracując w ramach ekosystemu. Jednak w miarę ewolucji sztucznej inteligencji w kierunku agentów zautomatyzowane systemy będą samodzielnie podejmować decyzje oraz działania. Agenci AI będą nie tylko doradzać użytkownikom, ale także działać w ich imieniu. Sztuczna inteligencja będzie nadal generować teksty, obrazy i wnioski, ale agenci sami zdecydują, w jaki sposób je wykorzystać.
Choć ewolucja agentów AI dopiero się rozpoczyna, firmy już dziś muszą pomyśleć o przyszłości. Jeśli agenci AI już teraz zaczynają działać, wkrótce zaczną wchodzić ze sobą w interakcje. Strategia jutra w zakresie sztucznej inteligencji będzie wymagała koordynacji całego szeregu podmiotów: wąsko wyszkolonej sztucznej inteligencji, ogólnych agentów AI, agentów dostosowanych do współpracy z ludźmi, jak również agentów zaprojektowanych do optymalizacji pracy maszyn.
Musimy jednak wykonać jeszcze wiele pracy, zanim agenci AI będą mogli faktycznie działać w naszym imieniu lub pełnić rolę naszych pełnomocników. Jeszcze więcej pracy wymaga umożliwienie im współpracy pomiędzy sobą. Obecnie agenci AI wciąż się gubią, niewłaściwie wykorzystują narzędzia i generują niedokładne odpowiedzi. Popełniają błędy, które mogą się błyskawicznie kumulować.
Współpraca ludzi i maszyn odbywała się do tej pory na poziomie poszczególnych zadań. Liderzy nie wyobrażali sobie, że sztuczna inteligencja będzie mogła zarządzać całymi firmami – aż do dziś. Awansowanie agentów AI do roli współpracowników lub pełnomocników wymusi konieczność zredefiniowania wspólnej przyszłości technologii i talentów. Nie chodzi tu tylko o nowe umiejętności, ale również o pewność, że agenci AI będą podzielać nasze wartości oraz dążyć do tych samych celów. Agenci AI pomogą nam kształtować świat, ale to my musimy dopilnować tego, aby był to świat, w którym chcemy żyć.
96%
menedżerów uważa, że w ciągu najbliższych 3 lat wykorzystanie ekosystemów agentów AI będzie stanowić istotną perspektywę rozwoju ich organizacji.
W związku z ewolucją asystentów AI do roli pełnomocników zdolnych do działań w naszym imieniu pojawiające się możliwości biznesowe będą zależeć od trzech kluczowych kompetencji: dostępu do danych i usług w czasie rzeczywistym, formułowania wniosków w oparciu o złożony łańcuch myślowy oraz tworzenia narzędzi przeznaczonych nie dla ludzi, lecz dla agentów AI.
Zacznijmy od dostępu do danych i usług w czasie rzeczywistym. Po uruchomieniu ChatGPT częstym błędem popełnianym przez użytkowników było założenie, że aplikacja aktywnie wyszukuje informacje w sieci. W rzeczywistości GPT-3.5 (model LLM, na którym początkowo uruchomiono ChatGPT) został wytrenowany na niezwykle szerokim zakresie wiedzy i wykorzystywał związek między danymi podczas udzielania odpowiedzi.
W marcu 2023 r. firma OpenAI ogłosiła powstanie pierwszych pluginów dla ChatGPT, które umożliwiają modelom LLM: wyszukiwanie informacji, korzystanie z oprogramowania, wykonywanie kodu, wywoływanie interfejsów API oraz generowanie danych wyjściowych obejmujących więcej niż sam tekst, umożliwiając modelowi dostęp do internetu.
Pluginy przekształcają podstawowe modele AI z rozbudowanych mechanizmów działających w odizolowaniu w agentów zdolnych do poruszania się po współczesnym cyfrowym świecie. Choć wtyczki same w sobie mają ogromny potencjał innowacyjny, odegrają również kluczową rolę w ewolucji ekosystemów agentów.
Drugim krokiem w ewolucji agentów AI jest zdolność do rozumowania i logicznego myślenia, ponieważ realizacja nawet najprostszych codziennych działań dla ludzi wymaga dostarczenia maszynie złożonych instrukcji.
Badania nad sztuczną inteligencją zaczynają przełamywać bariery w dziedzinie rozumowania maszynowego. Technika Chain-of-thought prompting, oparta na wnioskowaniu, pozwala modelom LLM lepiej zrozumieć poszczególne etapy złożonych zadań. (xi) Badacze zdali sobie sprawę, że mogą uzyskać lepsze wyniki, dzieląc prompty na odrębne części, a nawet sugerując modelowi sposób rozumowania, jakim ma się kierować. Ten styl podpowiedzi może początkowo wymagać zaangażowania człowieka, ale kolejne badania potwierdzają, że modele LLM można zaprojektować na autokrytykę oraz rejestrowanie informacji w pamięci roboczej, co otwiera drzwi do automatyzacji tego typu myślenia.
Dzięki rozumowaniu opartemu na łańcuchu myślowym i pluginach sztuczna inteligencja wykazuje potencjał do wykonywania złożonych zadań, zarówno w oparciu o silniejszą logikę, jak i różnorodne narzędzia dostępne w sieci. Ale co jeśli wymagane rozwiązanie nie jest jeszcze dostępne?
Ludzie, którzy stają przed tego typu wyzwaniem, albo kupują, albo tworzą potrzebne narzędzia. W kwestii rozwoju swoich możliwości sztuczna inteligencja polegała dotychczas wyłącznie na ludziach. Jednak trzecia kompetencja AI, która właśnie się kształtuje, to umiejętność opracowywania narzędzi do własnego użytku.
Perspektywa ekosystemu agentów AI może się wydawać przytłaczająca. W końcu poza trzema kluczowymi kompetencjami autonomicznych agentów AI chodzi również o szereg wyzwań związanych ze szczegółową koordynacją i gruntowną transformacją pracy człowieka, które są niezbędne. Już sama świadomość tych zmian wystarczy, aby liderzy mieli wątpliwości, od czego zacząć.
Dobra wiadomość jest taka, że dotychczasowe doświadczenia przedsiębiorstw w zakresie transformacji cyfrowej będą dla nich istotnym wsparciem. Modernizacja danych i tworzenie bibliotek interfejsów API będą kluczem do zintegrowania systemów przedsiębiorstw z ekosystemami sztucznej inteligencji. Należy jednak pamiętać, że modele LLM nie są pozbawione wad, takich jak np. udzielanie błędnych odpowiedzi. Dlatego konieczne jest przeprowadzenie znacznie większej liczby badań dotyczących ryzyka i implikacji związanych z cyberbezpieczeństwem, wynikających z wykorzystywania tych modeli.
Co się zmieni, gdy ekosystemy agentów AI zaczną funkcjonować? Niezależnie od tego, czy agenci AI będą naszymi asystentami, czy też pełnomocnikami, rezultatem będzie gwałtowny wzrost produktywności, innowacyjności i reorganizacja kadry pracowniczej.
Agenci AI mogliby istotnie zwiększać wydajność pracowników, wspierając ich jako asystenci i pomocnicy. W przypadku procesów mających miejsce w przedsiębiorstwach – które będą zawsze zależne od ludzi – agenci mogą pełnić funkcję współpracowników.
Umożliwianie agentom AI samodzielnego wykonywania zadań będzie wymagało zwiększonego zaufania. Jako nasi pełnomocnicy mogliby realizować zadania, które aktualnie wykonują ludzie, mając przy tym ogromną przewagę – jeden agent AI wykorzystywałby wszystkie zasoby informacyjne przedsiębiorstwa. Zakres ich wiedzy znacznie przewyższałby wiedzę nawet najbardziej doświadczonych pracowników. Ponadto agenci AI w oparciu o tę wiedzę mogliby działać jednocześnie we wszystkich obszarach organizacji. Gdyby brakowało określonych informacji, mogliby je stworzyć. W sytuacji braku odpowiednich narzędzi – mogliby je zaprojektować.
Aby skutecznie wspierać agentów AI, firmy będą musiały przemyśleć swoje strategie, zarówno w odniesieniu do kadry pracowniczej, jak i technologii. Z technologicznego punktu widzenia istotną kwestią będzie sposób identyfikacji agentów. W sytuacji, kiedy zaczną realizować więcej niezależnych działań, naśladując zachowania człowieka, kluczowe znaczenie zyskają takie technologie, jak Web3, zdecentralizowana tożsamość lub inne, nowo powstające rozwiązania, które pozwolą na prawidłową identyfikację agentów AI oraz ich uwierzytelnianie.
Jeszcze większej uwagi wymaga wpływ agentów AI na kadrę pracowniczą, jej nowe obowiązki, role oraz funkcje. Należy podkreślić, że ludzie nie okażą się zbędni. To prawda, że zyskają więcej czasu, ale zdecydowanie będą go potrzebować. Przejęcie przez agentów poszczególnych funkcji w przedsiębiorstwie nie oznacza pracy samej maszyny. To ludzie będą definiować zasady pracy agentów i je egzekwować. Nadszedł czas, aby redefiniować strategię w zakresie talentów i przygotować kadrę pracowniczą na nową rzeczywistość.
W erze ekosystemów agentów AI najcenniejsi okażą się pracownicy, którzy będą najlepiej definiować instrukcje dla agentów sztucznej inteligencji. W miarę rozwoju ich autonomii ludzie muszą tworzyć i egzekwować zasady gwarantujące, że pełnomocnicy AI będą działać w interesie firmy oraz jej pracowników. Dzięki agentom AI ludzie zyskają większe możliwości niż kiedykolwiek wcześniej, ale zarówno pracownicy, jak i agenci muszą działać zgodnie z polityką i wartościami firmy. Wkrótce konsekwencje wszystkich decyzji podejmowanych przez pracowników – zarówno dobrych, jak i złych – zostaną spotęgowane.
Od stopnia zaufania firmy do autonomicznych agentów AI zależeć będzie wartość, jaką dostarczą oni przedsiębiorstwu – a za jego budowanie odpowiedzialni są utalentowani pracownicy. Ekosystemy agentów AI będą podejmować samodzielne działania, lecz nie zawsze właściwe. Zanim nastąpi ich upowszechnienie, ludzie muszą zdefiniować zasady ich funkcjonowania, wyposażyć w wiedzę i umiejętność logicznego myślenia, a następnie poddać rygorystycznym testom potwierdzającym ich gotowość do działania. Wraz z ewolucją ekosystemów agentów AI ludzie są odpowiedzialni za dwa kluczowe obszary budujące zaufanie do półautomatycznych systemów: tworzenie systemów wsparcia agentów oraz udoskonalenie rozumowania maszynowego.
Pracownicy wiodących organizacji już dziś działają nad ukierunkowaniem autonomicznej AI na wykonywanie prawidłowych działań poprzez kształtowanie systemu wsparcia agentów. Obecne modele LLM są trenowane na ogromnych ilościach danych, co pozwala narzędziom takim jak ChatGPT odpowiadać na szereg pytań z umiarkowaną poprawnością. W sytuacji, w której agent AI kontroluje w Twojej firmie np. łańcuch dostaw, potrzebuje przede wszystkim informacji dotyczących tego obszaru. Wszystkie niezwiązane z nim informacje mogą zaprowadzić go w ślepy zaułek. W miarę wprowadzania do autonomicznej AI wiedzy przedsiębiorstwa, jej danych i zewnętrznych narzędzi systemy wsparcia AI mogą wskazywać, które informacje mają być traktowane priorytetowo.
Nie wystarczy jednak logiczne myślenie – agenci AI muszą również rozumieć własne ograniczenia. Kiedy agent dysponuje wystarczającymi informacjami do samodzielnego działania, a kiedy powinien zasięgnąć pomocy człowieka? Odpowiedź na to pytanie zależy od modelu agenta, firmy, która z niego korzysta, oraz specyfiki branży. Jednak w każdym przypadku o tym, jak dużą niezależność działania będą posiadać autonomiczne systemy AI, będą decydować ludzie. To my jesteśmy odpowiedzialni za nauczenie agentów określania tego, co wiedzą i – co ważniejsze – czego nie wiedzą, aby mogli uzyskać potrzebne informacje i pewność niezbędną do dalszego działania.
Co możesz zrobić już dziś, aby przygotować swoich pracowników i agentów AI na sukces? Daj agentom szansę na poznanie Twojej firmy, a swojej firmie szansę na poznanie agentów.
Przedsiębiorstwa mogą zacząć od stworzenia wspólnej struktury, łączącej poprzedników agentów AI, modele LLM, z ich systemami wsparcia. Dostępnych jest wiele dojrzałych modeli generatywnej sztucznej inteligencji i kilku cyfrowych pomocników, gotowych, aby połączyć ludzi, dane, narzędzia i roboty o kluczowym znaczeniu dla Twojej firmy. Dostosowując modele LLM poprzez dostarczenie im danych Twojej organizacji, zapewnisz modelom podstawowym przewagę w rozwijaniu ekspertyzy.
Im szybciej przygotujesz swoją infrastrukturę i dane do działań wykonywanych przez agentów, tym szybciej będą mogli wykorzystać swój pełny potencjał, a więc realizowć działania w imieniu pracowników w obrębie organizacji i poza nią. Na obecnym etapie konieczne będzie również przeanalizowanie na nowo niektórych procesów zarządzania danymi, takich jak wektoryzacja baz danych, zapewnienie nowych interfejsów API umożliwiających dostęp do danych, a także rozwijanie narzędzi do współpracy z systemami korporacyjnymi.
Nadszedł również czas, aby zapoznać pracowników z ich przyszłymi cyfrowymi współpracownikami. Firmy mogą już dziś tworzyć podstawy zaufania do agentów AI, ucząc swoje zespoły rozumowania w oparciu o istniejące inteligentne technologie. Zmotywuj swoich pracowników do odkrywania i przekraczania ograniczeń obecnych systemów autonomicznych AI. Pomóż im stworzyć gruntowne zasady określające, kiedy mogą zaufać autonomicznym systemom, a kiedy nie. Reasumując, firmy powinny szkolić swoich pracowników i podnosić ich kwalifikacje, aby byli gotowi i chętni do podjęcia współpracy z agentami AI i z powodzeniem współpracowali z nimi, kiedy ekosystemy agentów staną się codziennością.
Należy również zadbać o to, aby nie było żadnych wątpliwości w zakresie polityki i wartości, jakimi kieruje się Twoja firma. Każde działanie realizowane przez agentów AI musi być zgodne z wartościami i misją firmy, dlatego konieczna jest operacjonalizacja wartości w obrębie całej organizacji.
Ekosystemy agentów AI mają potencjał do zwielokrotnienia produktywności i innowacyjności przedsiębiorstw w niewyobrażalnym stopniu. Ich skuteczność będzie jednak zależeć od ludzi, którzy nimi sterują. Ludzka wiedza i rozumowanie sprawią, że jedne sieci agentów będą uzyskiwać przewagę nad innymi. Dziś sztuczna inteligencja jest tylko narzędziem. W przyszłości agenci AI będą prowadzić nasze firmy. Naszym zadaniem jest zapewnienie, aby ta zmiana nie doprowadziła do chaosu. Biorąc pod uwagę tempo rozwoju sztucznej inteligencji, czas wdrażania agentów już nadszedł.
Z punktu widzenia bezpieczeństwa ekosystemy agentów będą musiały zapewnić przejrzystość wszystkich procesów i decyzji. Weźmy pod uwagę coraz częstszy wymóg dotyczący udostępnienia dokumentu Software Bill of Materials (SBOM) – listy komponentów oprogramowania oraz mechanizmów wykorzystywanych przez aplikacje, umożliwiającej zainteresowanym stronom zapoznanie się z architekturą oprogramowania. Analogiczna lista komponentów agentów AI pozwoli zrozumieć i prześledzić proces podejmowania przez nich decyzji.
Jaką logiką kierował się agent AI przy podejmowaniu decyzji? Który agent podjął daną decyzję? Jaki kod został napisany? Jakie dane zostały wykorzystane i komu je udostępniono? Im lepiej będziemy w stanie prześledzić i zrozumieć procesy decyzyjne agentów, tym bardziej będziemy w stanie zaufać agentom działającym w naszym imieniu.
Wkrótce obliczenia przestrzenne wpłyną nie tylko na zmianę kierunku w innowacjach technologicznych, ale również na modyfikację sposobu pracy i stylu życia. Dotychczas oknem do cyfrowego świata były ekrany komputerów i urządzeń mobilnych, ale obliczenia przestrzenne pozwolą wreszcie na połączenie rzeczywistości cyfrowej i fizycznej. Aplikacje wykorzystujące technologię obliczeń przestrzennych pozwolą nam zagłębiać się w cyfrowe światy, nie tracąc fizycznego poczucia przestrzeni, lub nakładać treści cyfrowe na naszą rzeczywistość fizyczną.
Dlaczego zatem nie mamy poczucia, że znajdujemy się u progu nowej ery technologicznej? Dlaczego jesteśmy zalewani informacjami na temat „załamania metaversum”? Jednym z najbardziej znanych zastosowań obliczeń przestrzennych jest właśnie metaversum. Spójrzmy na ceny nieruchomości cyfrowych, które po boomie z lat 2021–2022 w 2023 r. spadły o 80–90 proc.
Niektóre przedsiębiorstwa wstrzymują swoje działania, twierdząc, że zainteresowanie metaversum znacznie przekroczyło poziom zaawansowania tej technologii. Inni natomiast pędzą naprzód, rozwijając swoje możliwości technologiczne. Firma Meta dynamicznie rozwija produkty VR i AR. Wprowadziła również na rynek model Codex Avatars, który wykorzystując sztuczną inteligencję i kamery smartfonów, pozwala na tworzenie fotorealistycznych awatarów. Z kolei aplikacja RealityScan firmy Epic pozwala skanować za pomocą telefonu obiekty 3D w świecie fizycznym i przekształcać je w wirtualne zasoby 3D.
Technologie leżące u podstaw tej rewolucji, takie jak generatywna sztuczna inteligencja, sprawiają, że tworzenie środowisk i doświadczeń przestrzennych staje się coraz szybsze i łatwiejsze. Ponadto – co pozostaje bez większego rozgłosu – technologie te zaczynają się sprawdzać w zastosowaniach przemysłowych, wywierając praktyczny i niezwykle cenny wpływ na branżę przemysłową: cyfrowe bliźniaki w produkcji, zaawansowana technologia VR/AR w szkoleniach, zdalnej obsłudze procesów oraz tworzeniu środowisk projektowych opartych na współpracy.
W rzeczywistości nowe media nie pojawiają się często i początkowo tempo ich adopcji jest bardzo powolne, dlatego wczesne inwestowanie w tego typu innowacje może przynieść ogromne korzyści.
Nadszedł czas, aby zacząć działać. Nadchodzi punkt zwrotny, w którym koszt wytworzenia i adopcji technologii spada. Następuje znaczący postęp w zakresie tworzenia aplikacji przestrzennych, nadawania im realistycznego charakteru i optymalizacji ich potencjału.
Kluczowe znaczenie ma fakt, że dzięki nowym standardom, narzędziom i technologiom tworzenie aplikacji i doświadczeń przestrzennych, które wydają się znajome, staje się coraz łatwiejsze – i do tego tańsze.
Weźmy na przykład często odwiedzane strony internetowe lub ulubione aplikacje mobilne. Pomijając ich różnorodne przeznaczenie, istnieje coś, co nadaje im pewien uniwersalny charakter. Dlaczego? Ponieważ ich twórcy bazowali na tych samych fundamentach.
Technologie przestrzenne przez długi czas nie miały wspólnego fundamentu. Gdy próbujemy budować światy, które mają sprawiać wrażenie autentycznych, brak spójności stanowi poważne wyzwanie. Twórcy przestrzeni cyfrowych muszą patrzeć o wiele szerzej niż projektanci stron internetowych, uwzgędniając takie elementy, jak struktury, kształty, oświetlenie i fizyka. Modelowanie 3D wkroczyło w obszar obliczeń przestrzennych z różnymi doświadczeniami – od projektowania gier, przez animację filmową, po zastosowania przemysłowe, takie jak rysunki architektoniczne czy modelowanie CAD. Z uwagi na szeroką gamę języków, rodzajów plików, dostawców i podejść do projektowania ekosystem był w znacznym stopniu podzielony.
Wtedy pojawił się format USD (Universal Scene Description), który można opisać jako trójwymiarowy format plików do przestrzeni 3D. Format USD, opracowany przez studio animacji Pixar, umożliwia twórcom mapowanie różnych aspektów scen i określonych zasobów, takich jak tło, oświetlenie, postaci i wiele innych. Jako że format USD został zaprojektowany z myślą o łączeniu różnych zasobów w sceny, w każdej z nich można korzystać z innego oprogramowania, umożliwiając współtworzenie treści i nieniszczącą edycję plików. Mogłoby się wydawać, że format USD znajduje zastosowanie głównie w przemyśle rozrywkowym, ale obecnie staje się on również centralnym elementem najbardziej znaczących aplikacji przestrzennych, zwłaszcza przy wykorzystaniu cyfrowych bliźniaków w branży przemysłowej.
Przedsiębiorstwa muszą zrozumieć, że nie będą działać w odizolowanym środowisku. Podobnie jak żadna strona internetowa lub aplikacja nie jest odcięta od reszty cyfrowego świata. Kolejna iteracja sieci jeszcze bardziej zbliży do siebie równoległe przestrzenie. Technologie tożsamości cyfrowej i Web3 będą wspierać funkcjonowanie środowisk cyfrowych – od umożliwienia przeniesienia pary cyfrowych spodni lub danych o płatności z jednej rzeczywistości do innej, po metody identyfikacji podmiotów obsługujących te przestrzenie. To technologie, które dziś mogą wydawać się mało istotne dla pomyślnego rozwoju przestrzeni cyfrowych, ale wkrótce będą miały decydujący wpływ na ich długoterminowe funkcjonowanie oraz ich wartość dla klientów.
Niektórzy już teraz biorą to pod uwagę. Open Metaverse Alliance for Web3 (OMA3) tworzy standard definiujący sposób, w jaki poruszamy się po tych środowiskach. Obecnie, gdy chcesz przenieść się z jednego świata metaversum do drugiego, musisz zamknąć jedną aplikację i przejść do następnej. Właściwie to tak jakby trzeba było zamykać i ponownie uruchamiać przeglądarkę przy przejściu do nowej strony internetowej. W 2023 r. OMA3 uruchomiło projekt pod nazwą Inter-World Portaling, mający na celu opracowanie protokołu umożliwiającego deweloperom przechodzenie z jednej przestrzeni do innej bez utraty immersji, w sposób przypominający korzystanie z paska adresu strony internetowej.
Mimo że interoperacyjność jest bardzo istotna, to w dalszym ciągu nie wystarczy, jeśli tworzenie zasobów 3D pozostanie – tak jak do tej pory – bardzo kosztowne. Według jednej z analiz z 2020 r. średni koszt stworzenia modelu 3D wynosił od 40 dolarów do tysięcy dolarów za każdy zasób. A przecież sceny 3D będą wymagały dużych ilości zasobów. Mimo to jest to obszar, w którym presja kosztowa zaczyna powoli słabnąć.
„Gdzie są wszyscy?” – powiedział słynny fizyk Enrico Fermi, zastanawiając się nad obecnością życia we wszechświecie. Według obliczeń matematycznych nasz wszechświat powinien być pełen życia, ale kiedy patrzymy na gwiazdy, przestrzeń kosmiczna wydaje się opustoszała. Podobne odczucie mamy, odwiedzając dziś przestrzenie metaversum. Dobrze zaprojektowane, a jednak puste przestrzenie mogą odstraszać użytkowników. Dlatego odniesienie sukcesu wymaga od firm znacznie więcej niż tylko nadania przestrzeniom realistycznego wyglądu – muszą także sprawiać wrażenie zamieszkanych.
Jednym z najprostszych sposobów na wypełnienie przestrzeni jest sprowadzenie do nich innych użytkowników. Jednak z uwagi na fakt, że szacunkowa liczba osób korzystających ze środowisk metaversum wynosi aż 400 milionów, w ich przestrzeniach może się szybko zrobić tłoczno. W fizycznym świecie wejście do jednego ze sklepów globalnej sieci sprzedaży to jedno – inaczej wygląda sytuacja w świecie wirtualnym, kiedy wszyscy użytkownicy próbują wejść do tego samego sklepu internetowego w tym samym momencie.
Kolejną strategią jest tworzenie postaci na bazie sztucznej inteligencji. Mogą one wypełniać wirtualne przestrzenie, zapewniając interaktywne i personalizowane doświadczenia. Nie jest to jednak nowa koncepcja – bohaterowie niezależni (Non-player characters, NPCs) stanowią nieodłączny element gier komputerowych od początku ich istnienia. W przeszłości jednak wzbudzali mieszane odczucia – postaci pustych i pozbawionych osobowości.
Inworld AI wytycza nowy kierunek – tworzy postaci sterowane przez sztuczną inteligencję, które mają swoją osobowość oraz potrafią się komunikować zarówno werbalnie, jak i niewerbalnie. Są świadome kontekstu, w którym się znajdują, dlatego nie dotyczy ich problem halucynacji. Nie odnoszą się również do treści spoza ich zaprogramowanego świata, co redukuje ryzyko dezinformacji.
Nową kształtującą się kompetencją, która wyróżnia obliczenia przestrzenne od ich cyfrowych pierwowzorów, jest angażowanie naszych zmysłów. Innowacyjne technologie umożliwiają projektowanie doświadczeń, które oddziałują na wszystkie zmysły, wykorzystując dotyk, zapach i dźwięk.
W przeszłości próby wprowadzenia do VR haptyki i wrażeń dotykowych mogły sprawiać wrażenie nietrafionych. Jednak ostatnio w celu lepszej symulacji dotyku naukowcy z Uniwersytetu w Chicago zaproponowali wykorzystanie elektrod. Stworzyli system składający się z 11 kontrolowanych stref dotykowych, umieszczanych na palcach użytkownika, pozwalając „poczuć” cyfrowe treści. Wyobraź sobie aplikację przestrzenną do medytacji, która przenosi Cię na wirtualną plażę, pozwalając Ci „poczuć” ziarenka piasku.
Cyfrowe przestrzenie mogą stać się bardziej realistyczne dzięki wykorzystaniu zapachów, które wywołują wspomnienia lub uruchamiają określone reakcje. Firma Scentient, pracująca nad wprowadzeniem wrażeń zapachowych do metaversum, eksperymentowała z technologią wykorzystywaną do szkolenia strażaków i ratowników, dla których zapach (np. gazu) może mieć decydujące znaczenie dla oceny sytuacji.
Kluczowe znaczenie dla tworzenia realistycznych środowisk cyfrowych ma również dźwięk, w tym dźwięk przestrzenny. Niedawno magazyn „New York Times” wykorzystał internetowy dźwięk przestrzenny, aby czytelnicy „poczuli” krajobraz dźwiękowy katedry Notre Dame w Paryżu. Za pośrednictwem urządzeń mobilnych lub komputerów użytkownicy mogli „przechadzać się” po katedrze, aby posłuchać brzmienia chóru z różnych zakątków świątyni.
Docelowo immersyjne aplikacje przestrzenne będą reagowały na nasz naturalny sposób poruszania się. Aplikacja Vision Pro firmy Apple śledzi ruchy gałek ocznych, aby lepiej lokalizować na wyświetlaczu treści o niskim opóźnieniu. Z kolei funkcja Direct Touch firmy Meta bada, w jaki sposób śledzenie ruchów dłoni w VR mogłoby zastąpić kontrolery ręczne, zapewniając wrażenie bardziej naturanych ruchów.
Obliczenia przestrzenne nie zastąpią komputerów stacjonarnych ani mobilnych, ale stają się ważnym elementem struktury obliczeniowej, tworzącej strategię IT przedsiębiorstw.
Choć obecnie technologia obliczeń przestrzennych znajduje się na wczesnym etapie rozwoju, to już dziś umożliwia zastosowanie cyfrowych bliźniaków w taki sposób, aby pozwolić uczestnikom szkoleń „odczuwać”, a nie tylko oglądać nagrania wideo – co wzmacnia ich doświadczenia. Pomimo iż są to na razie projekty pilotażowe, dokładna analiza wyjątkowych możliwości technologii obliczeń przestrzennych może pomóc w kształtowaniu i rozwijaniu strategii przedsiębiorstwa. Choć rynek wciąż dojrzewa, już dziś wiemy, że aplikacje przestrzenne przynoszą najlepsze rezutaty w trzech zastosowaniach: przekazywaniu dużej ilości złożonych informacji, dawaniu użytkownikom wpływu na ich doświadczenia oraz – co może wydawać się nielogiczne – wzbogacaniu fizycznej przestrzeni.
Przewagę obliczeń przestrzennych nad innymi rozwiązaniami widać najwyraźniej tam, gdzie konieczne jest przekazywanie złożonych informacji. Ponieważ przestrzeń pozwala użytkownikom poruszać się i działać naturalnie, informacje mogą być przekazywane w bardziej dynamiczny i angażujący sposób. Widzieliśmy to już w praktyce. Do jednych z pierwszych aplikacji, które z powodzeniem wykorzystują obliczenia przestrzenne, należą przemysłowe cyfrowe bliźniaki, wirtualne scenariusze szkoleniowe oraz zdalna pomoc w czasie rzeczywistym. W każdym z tych zastosowań może pojawić się konieczność udostępnienia dużej ilości informacji. Korzystanie w tym celu z konwencjonalnych technik wiąże się z ryzykiem przeciążenia informacyjnego, co może prowadzić do dezorientacji lub nieprawidłowego przeszkolenia pracowników.
Drugą zaletą technologii przestrzennych w porównaniu z mediami starszego typu jest umożliwienie użytkownikom kształtowania ich wrażeń w aplikacji. Obliczenia przestrzenne pozwalają nam tworzyć cyfrowe doświadczenia, które ucieleśniają fizyczne poczucie przestrzeni, dzięki czemu możemy projektować doświadczenia zapewniające użytkownikom większą elastyczność poruszania się i eksploracji. W niektórych zastosowaniach posadzenie użytkownika za kierownicą sprawi, że jego doświadczenia będą bardziej osobiste, organiczne i użyteczne.
Paryskie Centrum Pompidou skorzystało z możliwości personalizacji doświadczeń muzealnych we współpracy ze Snapchatem i artystą wizualnym i kompozytorem Christianem Marclayem. (xxviii) Marclay pokrył fasadę budynku kolorowym, cyfrowym instrumentem, na którym za pośrednictwem aplikacji Snapchat AR mogły grać osoby odwiedzające muzeum. Goście mogli również nagrywać i udostępniać swoje „utwory”, dzięki czemu – poza standardowym zwiedzaniem – mieli również okazję wnieść do przestrzeni Centrum Pompidou własną kreatywność i osobiste doświadczenie.
Aplikacje przestrzenne mogą również wpływać na korzystne zmiany w przestrzeni fizycznej, umożliwiając jej ulepszanie i usprawnianie, bez wprowadzania fizycznych zmian. Wyobraź sobie biuro przyszłości, w którym zamiast fizycznych monitorów, projektorów i ekranów znajdują się komputery i aplikacje w przestrzeni cyfrowej. Dzięki aplikacjom przestrzennym będziemy mogli projektować prostsze przestrzenie, obniżając koszty i zwiększając elastyczność otoczenia.
Wrótce rozwój obliczeń przestrzennych nabierze rozpędu, a wyścig o pozycję lidera już trwa. Aby znaleźć się wśród najlepszych w nowej erze innowacji technologicznych, przedsiębiorstwa muszą ponownie przeanalizować swoje stanowisko w zakresie wykorzystywania technologii przestrzennych, uwzględniając wpływ, jaki ich najnowsze osiągnięcia będą miały na przyszłość. Nowe media obliczeniowe pojawiają się rzadko, ale mogą wywierać ogromny wpływ na świat biznesu i nasze życie przez kolejne dekady. Czy jesteś gotowy, aby eksplorować ten obszar już dziś?
Wdrożenie technologii przestrzennych w biznesie wymaga przemyślenia kwestii bezpieczeństwa. Liczba urządzeń przestrzennych będzie się zwiększać – pracownicy będą z nich korzystać w pracy, a konsumenci w celu dostępu do wirtualnych doświadczeń. Wraz z rozwijającym się ekosystemem urządzeń zwiększy się również ilość możliwych naruszeń bezpieczeństwa. Jak więc wyznaczyć granice tego, co bezgraniczne? Strategie firm w zakresie technologii przestrzennych będą musiały być zgodne z zasadami zerowego zaufania.
Ponadto firmy powinny zdawać sobie sprawę, że środowisko przestrzenne jest nieznanym obszarem, dlatego zarówno dostawcy aplikacji, jak i użytkownicy mogą spodziewać się „martwych punktów”. Jeden poziom zabezpieczeń może okazać się niewystarczający, dlatego należy wykorzystać strategię bezpieczeństwa Defense in Depth (Ochronę w głąb), obejmującą wiele poziomów zabezpieczeń (m.in. administracyjnych, technicznych, fizycznych).
Problemy ze zrozumieniem ludzi przyczyniają się do ograniczenia rozwoju wielu technologii, z których korzystamy. Pomyśl o robotach i dronach, którymi możemy sterować tylko za pomocą zrozumiałych dla nich komend. Częstą przyczyną trudności w interakcjach ludzi z technologią jest fakt, iż nasze chęci, oczekiwania i zamiary pozostają niezrozumiane.
Innowatorzy starają się to zmienić. W różnych branżach powstają nowe technologie i systemy, ukierunkowane na lepsze zrozumienie ludzi. Trwają prace nad „ludzkim interfejsem”, który uruchomi falę innowacji o zdecydowanie większym znaczeniu niż np. optymalizacja sterowania systemem inteligentnego domu.
Spójrz, w jaki sposób neurotechnologia zaczyna łączyć się z ludzkim umysłem. Dwa niezależne badania przeprowadzone niedawno przez naukowców z Uniwersytetu Kalifornijskiego w San Francisco i Uniwersytetu Stanforda dotyczyły wykorzystania protez neuronowych, takich jak interfejsy mózg-komputer (Brain-computer interface, BCI) do rozpoznawania mowy z danych neuronowych. Takie rozwiązania mogłyby wspierać pacjentów z niepełnosprawnością werbalną w „mówieniu”, tłumacząc próby mówienia na tekst lub generując głos.
Pomyśl również o technologiach odczytujących ruchy naszego ciała, takich jak śledzenie ruchu gałek ocznych i dłoni. W 2023 r. firma Apple wprowadziła na rynek system visionOS dla headsetu VR Vision Pro, który pozwala użytkownikom nawigować i klikać za pomocą spojrzenia i prostego gestu zamiast sterowania ręcznego.
Tego typu inowacje wpływają na totalną transformację sposobu interakcji ludzi i maszyn. Dzisiaj często „stajemy na głowie”, aby dana technologia zadziałała, ale „ludzki interfejs” sprawi, że ta sytuacja zmieni się diametralnie. Gdy technologie będą mogły lepiej zrozumieć nasze zachowania i intencje – skuteczniej się do nas dostosują.
Aby odnieść sukces, przedsiębiorstwa będą musiały stawić czoła wyzwaniom związanym z zaufaniem do technologii oraz jej potencjalnym nadużyciom. Zarówno firmy, jak i osoby prywatne mogą obawiać się nowego poziomu interakcji z technologią, która lepiej nas zrozumie i precyzyjniej odczyta nasze intencje. Z pewnością konieczna będzie także aktualizacja systemów bezpieczeństwa biometrycznego. Należy również zdefiniować nowe zabezpieczenia z zakresu neuroetyki (zajmującej się neurobiologicznymi podstawami etyki), w tym sposobu właściwego postępowania z danymi dotyczącymi mózgu i danymi biometrycznymi, które mogą być wykorzystywane do badania intencji i analizy stanów poznawczych ludzi. Do czasu wprowadzenia formalnych regulacji kształtowanie zaufania użytkowników jest obowiązkiem przedstawicieli biznesu.
Dla przedstawicieli biznesu próba zrozumienia ludzi jako jednostek, grup docelowych oraz społeczności stanowi odwieczne wyzwanie. Wykorzystanie w tym celu technologii cyfrowych stało się w ostatnich dziesięcioleciach elementem przewagi konkurencyjnej. Platformy i urządzenia cyfrowe umożliwiły przedsiębiorstwom śledzenie i kwantyfikację zachowań ludzi, dostarczając im istotną wartość. Wkrótce „ludzki interfejs” spowoduje kolejny przełom, pozwalając technologii na głębsze – „człowiekocentryczne” – zrozumienie człowieka.
31%
konsumentów przyznaje, że często są sfrustrowani tym, że technologia nie rozumie ich i ich intencji.
Pomyśl o wiodących strategiach wykorzystywanych przez firmy w celu zrozumienia zachowań ludzi. Dzielą się one na dwie kategorie. Pierwsza wykorzystuje gromadzenie danych w sieci, druga – czujniki znajdujące się w fizycznym świecie.
Umiejętność firm w zakresie zrozumienia zachowań ludzi w wirtualnym świecie jest głównym czynnikiem kształtującym doświadczenia cyfrowe. Wykorzystując informacje o użytkownikach, platformy personalizują ich doświadczenia i optymalizują produkty.
Z kolei urządzenia w świecie fizycznym od dawna gromadzą dane o ludziach, umożliwiając firmom tworzenie produktów i usług w oparciu o dane dotyczące m.in. zdrowia i lokalizacji. Czujniki ruchu w sklepach i urządzenia umożliwiające identyfikację twarzy oraz analizę emocji to rozwiązania, które pozwalają lepiej zrozumieć ludzi i wpływać na nich w celu uzyskania określonych rezultatów.
To istotne technologie, ale opierają się na śledzeniu i obserwowaniu schematów, które pozostają niesprecyzowane. Ludzie mogą czytać lub oglądać znane treści, ale w rzeczywistości mogą pragnąć czegoś zupełnie nowego. Potrafimy świetnie rozpoznawać ludzkie działania, ale nie zawsze rozumiemy ich przyczyny.
Określenie „ludzki interfejs” nie odnosi się do jednej technologii, ale do zestawu technologii, które pogłębiają sposób, w jaki innowatorzy postrzegają i rozumieją ludzi.
Część z nich wykorzystuje urządzenia ubieralne (wearables) do pomiaru biosygnałów z ciała użytkownika, które pomagają przewidywać pragnienia ludzi i zrozumieć ich stan poznawczy.
Niektórzy innowatorzy stosują bardziej szczegółowe metody analizy ludzkich intencji z uwzględnieniem ich otoczenia. Naukowcy z Wydziału Studiów Motoryzacyjnych chińskiego Uniwersytetu Tongji zajęli się opracowaniem nowego sposobu na zmniejszenie liczby kolizji samochodowych z udziałem pieszych. O ile większość działań prewencyjnych w zakresie ruchu drogowego wykorzystuje detekcję ruchu pieszych, o tyle badacze z Uniwersytetu Tongji zastosowali bardziej szczegółową obserwację, obejmującą odległość między pojazdem a pieszym, prędkość pojazdu oraz postawę ciała pieszego. Uwzględnienie postawy ciała pieszego na drodze może być istotną wskazówką dotyczącą jego kolejnych ruchów, co potencjalnie może przyczynić się do zwiększenia bezpieczeństwa na drogach.
Inne podejście do zrozumienia ludzkich intencji umożliwia sztuczna inteligencja. Weźmy pod uwagę współpracę człowieka z robotem. Stan umysłu człowieka, związany np. z jego ambicją lub zmęczeniem, może wpływać na podejście do realizowanego zadania. O ile ludzie zazwyczaj dobrze rozumieją stany umysłu – roboty tego nie potrafią. Dlatego naukowcy z Uniwersytetu South Carolina próbowali nauczyć roboty rozpoznawania stanów umysłu człowieka, aby mogły go lepiej wspierać.
Prawdopodobnie jedną z najbardziej ekscytujących technologii „ludzkiego interfejsu” jest neurotechnika, w tym neuroczujniki i interfejsy mózg-komputer (brain-computer interface, BCI). W ciągu ostatniego dziesięciolecia pojawiło się wiele nowych firm zajmujących się neurotechnologią, która ma wyraźny potencjał w zakresie odczytywania i identyfikowania ludzkich intencji.
Wiele osób może się spodziewać, że na rozpowszechnienie komercyjnego wykorzystania czujników neuronowych i systemów BCI będziemy musieli jeszcze długo poczekać, ale najnowsze postępy w rozwoju neurotechnologii świadczą o czymś innym.
Sceptycy uważają, że neurotechnologia będzie wykorzystywana wyłącznie w branży opieki zdrowotnej. Wiele istotnych rozwiązań neurotechnologicznych wykorzystuje w leczeniu pacjentów wysoce inwazyjne implanty. Jednak wraz z postępem technologicznym pojawiają się nowe rozwiązania – bardziej odpowiadające potrzebom i oczekiwaniom użytkowników związanym z komfortem ich zastosowania. Obecnie w tym zakresie pojawia się wiele projektów komercyjnych i innowacyjnych rozwiązań.
Dwie kluczowe zmiany napędzają rozwój w dziedzinie neurotechnologii. Pierwsza z nich dotyczy dekodowania sygnałów mózgowych. Technologia wykrywania sygnałów mózgowych była wykorzystywana od dawna, ale jej zastosowanie komercyjne jest przełomem. Identyfikacja wspólnych sygnałów i wzorców mózgowych u różnych osób jest niezwykle trudna. Jednak istotne postępy w tym zakresie umożliwiła sztuczna inteligencja, pozwalająca m.in. na pozyskiwanie większej ilości danych mózgowych.
Drugą istotną kwestią jest rozwój urządzeń neurotechnologicznych, a w szczególności poprawa jakości urządzeń zewnętrznych. Dotychczas badania EEG (elektroencefalogram) i fMRI (funkcjonalne obrazowanie metodą rezonansu magnetycznego) były dwiema najczęściej stosowanymi technikami zewnętrznego badania pracy mózgu. Do niedawna rejestrowanie obu rodzajów sygnałów mózgowych wymagało warunków laboratoryjnych.
Teraz zaczyna się to zmieniać. Urządzenia EEG były kiedyś bardzo wrażliwe na hałas w otoczeniu i ruch mięśni, przez co wymagały od pacjenta pozostania w bezruchu. Jednak nowe urządzenia, takie jak zestaw DSI-24 firmy Wearable Sensing, który wykorzystuje system suchych elektrod EEG, są bardziej odporne na ruch i hałas. I choć fMRI prawdopodobnie nie zniknie z placówek medycznych, nowsza technologia o nazwie fNIRS (funkcjonalna spektroskopia bliskiej podczerwieni) umożliwia pomiar przepływu krwi w mózgu pacjenta bez konieczności leżenia w tunelu laboartoryjnym.
Oprócz mobilności urządzeń neurotechnologicznych istotna jest również ich funkcja szybkiego przekształcania sygnałów mózgowych w działanie. W przypadku niektórych urządzeń wysyłanie nieprzetworzonych danych mózgowych do chmury może być zbyt powolne i powodować niedogodności dla użytkowników, łącznie z potencjalnym ograniczeniem ich ruchomości i problemami w poprawnej komunikacji. Jednak również w tym zakresie widać już postępy. W 2022 r. finansowanie od inwestorów venture capital (VC) przyspieszyło rozwój start-upów zajmujących się chipami Edge AI (procesorami do optymalizacji wydajności algorytmów AI na brzegu sieci). Uznani producenci chipów, tacy jak Nvidia i Qualcomm, kontynuują pracę nad budową mniejszych i bardziej wydajnych chipów dla systemów Edge AI. Niektórzy pracują również nad zwiększeniem wydajności obliczeniowej przetwarzania sygnałów mózgowych.
94%
dyrektorów zarządzających uważa, że technologie „ludzkich interfejsów” pozwolą maszynom na lepsze zrozumienie zachowań i intencji ludzi, rewolucjonizując ich interakcje.
Coraz więcej przedsiębiorstw zaczyna tworzyć strategie dotyczące „ludzkiego interfejsu”. Należy jednak zacząć od zdefiniowania obszarów biznesowych i wyzwań, dla których możliwa jest transformacja.
Po pierwsze warto zastanowić się, w jakich obszarach technologie „ludzkiego interfejsu” pozwalające na lepsze przewidywanie działań człowieka mogą być wykorzystywane. Dotychczas najbardziej obiecujące przypadki zastosowania w tym zakresie dotyczą obszarów, w których ludzie i maszyny współpracują. Przykładem może być tworzenie bezpieczniejszych i bardziej efektywnych systemów produkcji.
Innym obszarem do potencjalnej transformacji jest bezpośrednia współpraca człowieka z maszyną, a więc sposób, w jaki korzystamy i kontrolujemy technologię. Pomyśl o możliwościach neurotechnologii w zakresie wykorzystania sygnałów mózgowych do tworzenia potencjalnie bardziej naturalnych interakcji między ludźmi a technologią.
Naukowcy z University of Technology Sydney opracowali zestaw BCI, który wykorzystuje biosensor do przechwytywania fal mózgowych i przekładania ich na polecenia. W teście z udziałem australijskjej armii żołnierze za pomocą zestawu interfejsów mózg-komputer sterowali czworonożnym psem-robotem z dokładnością do 94%.
„Ludzki interfejs” może również napędzać innowacyjność w zakresie produktów i usług. Przykładowo – wykrywanie sygnałów mózgowych może pozwolić nam na lepsze zrozumienie siebie. L'Oréal współpracuje z EMOTIV nad lepszym zrozumieniem naszych preferencji zapachowych.
Przez niektóre firmy „ludzki interfejs” jest także postrzegany jako sposób na zwiększenie bezpieczeństwa. Meili Technologies – start-up pracujący nad poprawą bezpieczeństwa pojazdów, wykorzystuje technologię uczenia głębokiego, dane wizualne i czujniki umieszczone w kabinie samochodów, aby wykrywać u kierowców m.in. przypadki ataku serca, ataku padaczki i udaru.
Firmy muszą oszacować ryzyka związane z wykorzystywaniem nowych technologii i zdefiniować zasady bezpieczeństwa, które należy wdrożyć. Zamiast czekać na nowe regulacje, przedstawiciele biznesu muszą już teraz szukać wytycznych bezpieczeństwa obowiązujących w dziedzinie biometryki oraz medycyny. Neuroetyka zyskuje na znaczeniu. Nasuwają się poważne pytania dotyczące bezpieczeństwa wykorzystania urządzeń neurotechnologicznych oraz zagrożeń psychologicznych dotyczących ludzkiej autonomii. Należy również wziąć pod uwagę takie aspekty, jak prywatność danych mózgowych, świadoma zgoda pacjentów oraz uczciwe wykorzystywanie nowych technologii (fairness). (xliv)
„Ludzki interfejs” to nowe podejście do rozwiązania jednego z najstarszych wyzwań biznesowych – zrozumienia ludzi.
To duża odpowiedzialność, ale jeszcze większa szansa. Ludzie będą mieć wiele pytań, ale ich obawy dotyczące prywatności będą stanowić pierwsze i najpoważniejsze wyzwanie, z jakim zmierzą się przedstawiciele biznesu. Niemniej jednak szansa firm na zrozumienie ludzi – w głębszy, bardziej „człowiekocentryczny” sposób – jest tego warta.
Bezpieczeństwo danych i ochrona prywatności stanie się kluczowym aspektem w zakresie przyszłości „ludzkiego interfejsu”. W 2024 r. bezpieczeństwo będzie najistotniejszym czynnikiem, który zadecyduje o tym, czy świat biznesu i konsumenci zaakceptują czy odrzucą technologie „ludzkiego interfejsu”.
Akceptacja bardziej wnikliwych i złożonych narzędzi technologicznych będzie zależeć przede wszystkim od tego, czy zapewnimy odpowiednią ochronę udostępnianych danych. Bezpieczeństwo informacji musi zostać uwzględnione na etapie projektowania kolejnej generacji systemów BCI, tak aby pozwolić ludziom na podejmowanie decyzji w zakresie udostępniania informacji, danych telemetrycznych, a także innych wrażliwych danych.