Polski nadzorca finansowy, jako jeden z pierwszych krajów Unii Europejskiej, opracował stanowisko dotyczące robodoradztwa. Takie działania wspierają stosowanie sztucznej inteligencji w procesie usług doradztwa inwestycyjnego. Choć robotyzacja zmniejsza koszty i zwiększa wydajność, konieczne są odpowiednie regulacje. Jednym z wyzwań jest zabezpieczenie prawne odpowiedzialności za szkody, które mogą powstać w związku z wykorzystaniem sztucznej inteligencji.
– Jeszcze 10 lat temu jadąc z nawigacją oraz z pasażerem, gdy nawigacja mówiła: „jedź prosto”, a ktoś, kto siedzi obok, powiedział: „skręcaj”, skręcilibyśmy. Nie wierzyliśmy, że technologia jest dostatecznie dobra. Dzisiaj pojedziemy prosto. Podobnie jest ze sztuczną inteligencją w zakresie doradztwa. Dzisiaj wybierzemy człowieka, bo wierzymy w to, że technologia w tym zakresie nie jest jeszcze dostatecznie dobra. Za 10 lat być może wybierzemy już robodoradcę – mówi agencji Newseria Biznes Jakub Szpringer, partner w Kancelarii KSZ Smart Legal – Karwasiński Szpringer i Wspólnicy.
Robodoradztwo, czyli zautomatyzowane doradztwo inwestycyjne, oparte na zaawansowanych algorytmach, sztucznej inteligencji i uczeniu maszynowym, staje się coraz popularniejsze. Sztuczna inteligencja poznaje potrzeby klienta na podstawie baz danych i proponuje mu dedykowane strategie inwestycyjne, następnie zarządza aktywami, aż do uzyskania określonego zysku. Jak podaje raport „Sztuczna inteligencja w bankowości”, erę robotów-doradców zapoczątkował w 2016 roku Bank of America. Dwa lata później Wealthfront stał się pierwszym doradcą robotycznym, który zaoferował bezpłatne, spersonalizowane planowanie finansowe dla swoich klientów.
Obecnie, jak szacuje firma Roland Berger, wartość aktywów zarządzanych przez sztuczną inteligencję wynosi ok. 500 mld euro. Choć to zaledwie 1 proc. światowych aktywów, rynek w ciągu najbliższych kilku lat ma rosnąć w tempie 36 proc. rocznie.
– Sztuczna inteligencja, która jest dostępna dzisiaj, to mechanizm oparty na uczeniu maszynowym, tzn. na algorytmach umiejących uczyć się na podstawie dostarczonych danych, zapotrzebowania klienta, jego profiu i opierając się na tym, proponować decyzje inwestycyjne. Należy pamiętać, że sztuczna inteligencja jest tak dobra jak algorytm, który za nią stoi, oraz dane, które zostaną do niego dostarczone, a za oba te elementy odpowiada człowiek – tłumaczy Jakub Szpringer.
Unia Europejska kładzie duży nacisk na rozwój automatyzacji. Wprowadzenie zachęt do wykorzystywania sztucznej inteligencji przez małe i średnie przedsiębiorstwa ma pozwolić na konkurencję z USA czy Chinami. Dotychczas brakowało jednak regulacji dotyczących wykorzystania sztucznej inteligencji w obszarze finansowym. Komisja Nadzoru Finansowego opracowała projekt stanowiska dotyczącego robodoradztwa w ramach tzw. Cyfrowej Agendy Nadzoru, czyli planu działań KNF w obszarze nowoczesnych usług finansowych. Tym samym Polska jest jednym z pierwszych europejskich krajów, w którym organ nadzoru poruszył szereg istotnych wątków związanych z projektowaniem takiej usługi, jej wdrożeniem i monitorowaniem.
– To jest bardzo dobry znak, bo pokazuje, że nadzorca jest świadom potencjału, jaki istnieje w nowych technologiach, oraz korzyści, jakie może przynieść dla klienta rynku finansowego – ocenia ekspert.
Zastosowanie sztucznej inteligencji w obszarze finansowym, choć może zmniejszyć koszty, niesie ze sobą zagrożenia. Dlatego, jak przekonuje Jakub Szpringer, nowe regulacje powinny być transparentne i zabezpieczyć kwestię odpowiedzialności za ewentualne szkody, jakie mogą powstać w wyniku stosowania sztucznej inteligencji.
– Sztuczna inteligencja ucząc się, popełnia oraz będzie popełniała błędy, natomiast konieczne jest to, żeby człowiek na każdym etapie jej rozwoju był w stanie te błędy zrozumieć tak, aby je wyeliminować – przekonuje prawnik.
Regulacje powinny też jasno wskazywać, od kogo klient może domagać się rekompensaty za ewentualne straty. Według rekomendacji komitetu ds. prawnych Komisji UE przyszłe przepisy powinny być wzorowane na regulacjach stosowanych do odpowiedzialności za produkt niebezpieczny.
– Czasami będzie to podmiot wprowadzający dane rozwiązanie na rynek, czasami podmiot, który dostarcza dane, modyfikując działanie sztucznej inteligencji, a czasami nadzorca, który kontroluje bieżącą działalność danego mechanizmu. W przypadku gdyby okazało się, że żaden z tych podmiotów nie jest dostępny, odpowiedzialność należy przypisać podmiotowi, który osiąga korzyści z tytułu działania danej usługi – wskazuje partner w Kancelarii KSZ Smart Legal – Karwasiński Szpringer i Wspólnicy.
Źródło: https://innowacje.newseria.pl/news/sztuczna-inteligencja,p123914818
Powered by WPeMatico