14.08.23, 07:00
Sztuczna inteligencja poza prawem. Co mają teraz zrobić firmy? Komentarz Sebastiana Drzewieckiego (SoftServe Poland)
Parlament Europejski przegłosował tzw. AI Act, który będzie regulował możliwe sposoby korzystania z technologii sztucznej inteligencji. Zarówno wśród prywatnych użytkowników, jak i przedstawicieli dużych firm tworzących tego rodzaju oprogramowanie, pojawiają się różne opinie na ten temat. Wiemy już, że nowe regulacje prawne wejdą w życie najprawdopodobniej nie wcześniej niż w 2025 r. Zanim to nastąpi, prace nad przepisami będą procedowane w tzw. trilogu czyli w koordynacji pomiędzy Parlamentem Europejskim, Radą i Komisją Europejską. Aż do momentu opublikowania obowiązujących zapisów prawnych w ostatecznym kształcie, rynek będzie regulował się samodzielnie. W jaki sposób firmy powinny podejść do tego okresu przejściowego i jakie może mieć on konsekwencje, opowiada Sebastian Drzewiecki, Country Manager SoftServe Poland.
Aby regulacje prawne z zakresu AI pełniły swoją funkcję ochronną, a z drugiej strony nie ograniczały rozwoju tej technologii, potrzebna jest duża precyzja i ostrożność. Stąd konieczny jest skrupulatny proces legislacyjny, którego nie można przeprowadzić zbyt szybko. Trwający obecnie okres zawieszenia, może okazać się rozwojowy dla technologii AI, o ile firmy wykorzystają go na wdrożenie regulacji wewnętrznych, które pozwolą na bezpieczne korzystanie ze sztucznej inteligencji.
Ryzyko wytworzenia mechanizmów AI niskiej jakości
Dziś jesteśmy w momencie, w którym najwięksi aktorzy na rynku dysponują dużymi modelami AI, jednak wciąż trwają prace w mniejszych firmach nad modelami opartymi na mniejszej liczbie danych. Co więcej, może się okazać, że takie rozwiązania będą działały lepiej, ponieważ na mniejszych zbiorach danych łatwiej będzie prowadzić proces uczenia się i korygować ewentualne błędy. Taka większa konkurencyjność rynku może doprowadzić nas do szybszego rozwoju i większej dostępności AI nawet w modelu open source. Powstaje tu jednak ryzyko wytworzenie wielu mechanizmów AI niskiej jakości – to może zdecydowanie wpłynąć na bezpieczeństwo naszych danych, które jak wiemy od lat, są niesłychanie cenne.
Pamiętać należy zarówno o danych prywatnych użytkowników, jak również firm. Coraz częściej narzędzia oparte na AI są na co dzień użytkowane przez pracownice i pracowników. Rozmowy na temat bezpiecznego używania AI i wewnętrzne regulacji są absolutnie kluczowe, aby sztuczna inteligencja przyczyniła się do rozwoju biznesu, a nie zagroziła jego bezpieczeństwu.
Uwaga na dokumenty biznesowe
Podstawowe reguły, które wprowadzamy w SoftServe to niezgoda na generowanie kodu przez AI lub wklejanie jego partii do tego rodzaju narzędzi w celu weryfikacji. Oczywiście zachęcamy twórczynie i twórców do zadawania pytań AI i korzystania z jej pomocy, jednak nie możemy narażać się na wyciek naszej własności intelektualnej. Musimy stale przypominać o tym, że narzędzia oparte na AI nie tylko odpowiadają na pytania, ale również uczą się na ich podstawie. Raz przekazana im informacja, zostaje zapisana w ich pamięci na zawsze. Należy o tym pamiętać tworząc i tłumacząc dokumenty biznesowe.
Łatwo również ulec iluzji, że AI jest w stanie w pełni wykonać za nas wiele czynności i zadań. Nie jesteśmy jeszcze na tym etapie rozwoju technologii, a bez ludzkiej weryfikacji zadania mogą być wykonane w błędny sposób. To wydaje się oczywiste, ale mam przekonanie graniczące z pewnością, że wielu osobom w natłoku obowiązków zdarza się nadmiernie zawierzyć AI.
Konieczne są wewnętrzne regulacje i edukacja
Aby ograniczać takie sytuacje konieczne są wewnętrzne regulacje oraz edukacja wszystkich pracowników i pracownic. Firmy nie mogą sobie pozwolić na zostawienie eksploracji narzędzi AI w sferze prywatnej. Ta technologia prawdopodobnie wpłynie na pracę prawie wszystkich, a więc wiedza o niej jest sprawą publiczną oraz zagadnieniem z zakresu zarządzania biznesem.
Kolejną sferą, na którą z pewnością wpłynie dynamiczny rozwój AI jest rynek pracy. Szerokie wykorzystanie sztucznej inteligencji może przyczynić się m.in. do automatyzacji procesu wytwarzania kodu. Tego rodzaju zmiany mogą przynieść korzyść wielu firmom, jednak mogą przyczynić się do trudności na rynku pracy IT.
Biorąc pod uwagę jak szybko i dynamicznie rozwija się technologia AI, zasadne wydaje mi się postawienie jeszcze jednego pytania: czy przegłosowane niedawno przez PE zapisy, aby na pewno będą aktualne w 2025 roku, kiedy to mają wejść w życie? Oczywiście procesów legislacyjnych nie można skracać, jednak istnieje ryzyko, że nie nadążą one za zmieniającymi się potrzebami w zakresie sztucznej inteligencji.
Sebastian Drzewiecki
Od 20 lat kieruje zespołami i rozwojem dużych organizacji w obszarze nowych technologii. Obecnie jest dyrektorem zarządzającym w Softserve Polska. Chętnie angażuje się w projekty non-profit związane z budowaniem kapitału społecznego. Działa w organizacjach wspierających rozwój młodych ludzi i przyszłych liderów, takich jak: "Technologia w spódnicy", "Mentoring Walk", "LeadersIN" i "ABSL". Po godzinach realizuje autorski projekt „Nowoczesny Lider” - podcast skierowany do managerów, którzy chcą być skutecznymi i inspirującymi liderami
Komentarze