AI – co dalej?

6 min. czytania

AI (ang. artificial intelligence), znane nam jako „sztuczna inteligencja” rodzi wiele kontrowersji, a temat – choć wydaje się odległy – wcale taki nie jest. Przepaść między ludzkością a robotyką rodem z filmu sci-fi – zasypywana postępem technologicznym – zmniejsza się z roku na rok. Co więcej, w czasach pandemii koronawirusa, siejącej globalną panikę i spustoszenie, AI mogłoby okazać się nieocenienie pomocne… Czy powinniśmy więc spodziewać się przyspieszonego rozwoju tej dziedziny?

Mimo, że AI skrywa ogromny potencjał i może bardzo przysłużyć się wielu obszarom naszego życia, ze snu wybudzają pytania natury etycznej. Co jest akceptowalne? Czy to odpowiedzialne?

Stajesz się odpowiedzialny na zawsze za to co oswoiłeś.

Zgodnie z tym, co w 1943 zapisał Antoine de Saint-Exupéry na kartach „Małego księcia” – ludzkość obawia się tego milowego, acz wątpliwego kroku, ze względu na ewentualne konsekwencje, wiążące się z „oswojeniem” AI. Musi również zmierzyć się z wieloma niepokojącym pytaniami: Co będzie dalej? Klonowanie jako regularna praktyka medyczna? Co chcemy osiągnąć i jakim kosztem? Szczerze współczuję wszelkim autorytetom, które muszą konfrontować się z tymi i innymi kwestiami.

Tymczasem, wiele firm korzysta już z rozwiązań AI, może nie tak daleko idących jak w filmach sci-fi ;-), ale pod postacią systemów, które przetwarzają skomplikowane algorytmy, na podstawie których oszacowują ryzyko, rozwiązują problemy i podejmują decyzje. Nie jest to żadna nowość, różnica kryje się w zarządzaniu. Nad dotychczasowymi rozwiązaniami AI czuwali programiści i analitycy danych, czy inni specjaliści, monitorując przebieg ich pracy, wyłapując błędy. Niestety – jakkolwiek pomocne – poleganie na sztucznej inteligencji, generuje sporo problematycznych kwestii (ang. bias)*, którymi powinni zainteresować się zarządzający takimi firmami – jak zauważa JoAnn C. Stonier, CDO (ang. chief data oficer) w Mastercard, w swoim artykule dla Forbes. Jednym – uważam – fundamentalnym z problemów, które wymienia Stonier jest tzw. implicit bias (pl. ukryte uprzedzenia); rodzaj algorithmic bias (pl. błędów algorytmicznych). Skąd się bierze? Jak wiadomo, każdy z nas jest inny, posiada inne doświadczenie życiowe, inne wspomnienia, a więc filtruje rzeczywistość w odmienny sposób. Specjaliści od analizy danych też ludzie ;-), więc ich postrzeganie rzeczywistości, również podlega takiej „osobistej filtracji”, a ich skojarzenia i przeświadczenia, bezpośrednio wpływają na interpretację analizowanych danych, a więc i na sposób programowania modeli, czy też schematów gromadzenia i przetwarzania danych w systemach AI.

Nie mniej, naukowcy pracują nad AI, które będzie na tyle inteligentne i intuicyjne, aby mogło samo się uczyć, a więc samodzielnie wyciągać wnioski i w oparciu o nie, samodoskonalić się oraz podejmować niezależne decyzje. Jednakże, jako że działania takich systemów oddziaływałyby na pracowników, znów wiąże się to z wieloma kwestiami do przemyślenia.

To create ethical AI, companies need to put the needs of the individual at the center of data innovation. This means thinking about digital rights as human rights and developing a holistic approach to data, including how we use and deploy AI.

Aby stworzyć etyczne AI, w procesie innowacji danych, firmy powinny skupić się na potrzebach jednostki. Oznacza to myślenie o prawach cyfrowych jak o prawach człowieka oraz wypracowaniu holistycznego podejścia do danych, uwzględniając jak używamy i wdrażamy AI.

Stonier idzie o krok dalej w swoich rozważaniach, nawołując organy zarządzające firmami, stosującymi AI, do stworzenia rozsądnej strategii przetwarzania i zarządzania danymi, uwzględniającej dobro jednostki i mającej na uwadze wszelkie bias*, związane z adaptacją tego typu rozwiązań. Twierdzi, że nie należy czekać na oficjalne regulacje prawne, gdyż może się to wiązać z przegapieniem wielu korzyści, jakie sztuczna inteligencja ma do zaoferowania:

…like the discovery of insights that can lead to innovations that benefit business and society, intelligent automation of processes that can free up human workers to add more strategic value or the creation of new products and services that fulfill unmet needs and help organizations leapfrog their competitors.

… jak wychwycenie informacji, które mogą przyczynić się do rozwoju innowacji, przynoszących korzyści przedsiębiorstwom i społeczeństwu; inteligentna automatyzacja procesów, która, uwolniwszy pracowników-ludzi, zwiększyłaby wartości strategiczne lub dała im szansę na stworzenie nowych produktów i usług, które spełniałyby niezaspokojone dotąd potrzeby i pomogłyby organizacjom wyprzedzić konkurencję.

Trudno nie zgodzić się ze spostrzeżeniami JoAnn C. Stonier, które z pewnością dają do myślenia, a mnie osobiście zainspirowały do stworzenia tegoż wpisu. Frazesem z mojej strony byłoby stwierdzenie, że zmiany są nieuchronne, dlatego myślę, że za pointę tej wypowiedzi mogę spokojnie uznać słowa Stonier:

Having responsible data practices for AI means having good AI governance.

Odpowiedzialne praktyki w zakresie danych AI to dobre zarządzanie AI.

Zachęcam również do poszerzenia tematu zarządzania sztuczną inteligencją. Beena Ammanath, dyrektor zarządzający w Deloitte Consulting LLP, stworzyła bardzo interesujący artykuł, w którym opisuje konkretny model (ang. AI framework).

*Więcej o problemach (wspomnianych bias in AI), związanych z wykorzystywaniem AI można doczytać w artykule na stronie Forbes.

Komentarze (0)

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *