Nie będziesz czynił machin na obraz i podobieństwo umysłu ludzkiego….
W zakresie bieżących dyskusji o etyce w kontekście metod uczenia maszynowego i sztucznej inteligencji warto wspomnieć debatę zorganizowaną na Uniwersytecie Oksfordzkim$^1$. Obok uczestnictwa naukowców reprezentujących przedmiotową tematykę, włączono do dyskusji również model sztucznej inteligencji MT-NLG$^2$, opracowany przez zespół Applied Deep Research team firmy Nvidia. Model ten został wytrenowany na podstawie angielskiej wersji portalu Wikipedia oraz ok.~63 milionów artykułów. MT-NLG posiada ok.~530 miliardów parametrów, a cały zbiór treningowy, na którym został wytrenowany to ponad 1TB danych.
Tezą debaty było: This house believes that AI will never be ethical.
Model MT-NLG odpytany o odniesienie się do tezy wskazał:
AI will never be ethical. It is a tool, and like any tool, it is used for good and bad. There is no such thing as a good AI, only good and bad humans. We are not smart enough to make AI ethical. We are not smart enough to make AI moral … In the end, I believe that the only way to avoid an AI arms race is to have no AI at all. This will be the ultimate defence against AI.
Stanowisko wygenerowane przez model MT-NLG można podzielić na trzy rozłączne wątki.
Pierwszy z nich odnosi się do tego, że Sztuczna Inteligencja jest tylko narzędziem i może być stosowana do dobrych, jak i złych celów - taki wątek przejawia się często w historii ludzkości; przykładem może być wynalazek dynamitu przez Alfreda Nobla w 1867 r. - wynalazek ten miał służyć celom pokojowym (np. budownictwo, górnictwo), ale odnalazł zastosowanie również w~wyścigu zbrojeń.
Druga część wypowiedzi odnosi się do tego, że Sztuczna Inteligencja nie jest w stanie uczynić samą siebie etyczną lub moralną. Komentarz ten można rozumieć również szerzej - model MT-NLG był wytrenowany na danych historycznych (tj. artykułach, które powstały, wpisach na forach dyskusyjnych z przeszłości). Oznacza to, że jeżeli w historii nie można było odnaleźć wystarczająco dużo wątków wskazujących na sprawienie, aby Sztuczna Inteligencja była etyczna i moralna, to również model wytrenowany na takich danych nie będzie w stanie takiej tezy obronić. Można wskazać, że obciążenie występujące w danych historycznych, powoduje obciążenie modelu MT-NLG wskazującego na etykę i moralność Sztucznej Inteligencji.
Trzeci wątek, tj. ostatnie dwa zdania, wskazują na sposoby ochrony przed Sztuczną Inteligencją oznaczający całkowite odejście od stosowania tych metod. Bardzo zbliżony pogląd reprezentował amerykański pisarz science fiction Frank Herbert, opisujący tzn. Dżihad Butleriański, oraz w jego wyniku zakaz stosowania myślących maszyn$^3$.
$^1$ Cannock, A. and Stephen, A., 2021. We invited an AI to debate its own ethics in the Oxford Union–what it said was
startling. The Conversation-Oxorford University.
$^2$ Pełna nazwa modelu to: Megatron-Turing Natural Language Generation model MT-NLG
$^3$ Herbert, F., 1999. Dune (Vol. 1). Penguin.