Sztuczna inteligencja a prawo

Rozwój robotyki jest w obecnej dobie już na takim etapie, że niezbędne stały się regulacje prawne obejmujące kwestie funkcjonowania inteligentnych robotów w społeczeństwie.

W tym roku Parlament Europejski rozpoczął prace nad tymi regulacjami (choć do samego procesu legislacji jeszcze daleko). Pomysłodawczynią jest europosłanka Mady Delvaux, która w 2016 r. złożyła do Parlamentu projekt sprawozdania w tej sprawie.

obraz.png

Autonomia i odpowiedzialność robotów

Autorka w swoim dokumencie zwraca uwagę na autonomię robotów rozumianą jako niezależną od zewnętrznej kontroli zdolność do podejmowania decyzji, które mogą wywrzeć skutki w realnym świecie. Stwarza to potrzebę określenia nowych zasad w przypadku wyrządzenia szkody powstałej w wyniku autonomicznej decyzji robota. Trzeba uregulować kto jest wówczas odpowiedzialny za szkodę i do kogo należy skierować roszczenie o odszkodowanie.

Przykładowo jeżeli robot, który nie ma autonomii zostanie wykorzystany do wykonania komuś zabiegu usunięcia wyrostka robaczkowego, i operacja się nie uda, pacjent umrze, to kogo winić za taki rozwój wypadków. Producenta robota, właściciela robota czyli szpital? Czy może będzie to błąd lekarza posługującego się robotem jako narzędziem, nadzorującego robota i przebieg zabiegu? Jednak w każdej z tych możliwości odpowiedzialnym jest człowiek - producent, właściciel lub lekarz.
Sprawa komplikuje się gdy maszyna będzie działać samodzielnie pod wpływem swoich własnych decyzji. Kto w tym przypadku popełnił błąd i kogo pociągnąć do odpowiedzialności karnej i finansowej?

Kwestia odpowiedzialności karnej i cywilnej robotów jest w tym przypadku kluczowa.

W sprawozdaniu pada propozycja ustanowienia obowiązkowego systemu ubezpieczeń. Producenci lub właściciele robotów będą musieli wykupić ubezpieczenie obejmujące szkody spowodowane przez ich roboty.

obraz.png

Nowa osoba - osoba elektroniczna

Mady Delvaux proponuje stworzenie specjalnego statusu prawnego dla inteligentnych robotów. Należałoby stworzyć odrębną kategorię osób. Inteligentne roboty w świetle prawa zostałyby uznane za osoby elektroniczne, z określonymi prawami i obowiązkami, w tym z tytułu naprawienia wszelkich spowodowanych przez nie szkód.

Kodeks etyczny dla twórców robotów

W sprawozdaniu zachęca wszystkich naukowców i projektantów do odpowiedzialnego działania, poszanowania godności, prywatności i bezpieczeństwa ludzi.

Naukowcy zajmujący się robotyką powinni przestrzegać następujące zasady:

  • Roboty powinny działać w interesie ludzi,
  • Roboty nie powinny szkodzić człowiekowi,
  • Ludzie powinni być informowani, że mają do czynienia z robotami i powinni mieć możliwość podjęcia świadomej na to zgody,
  • Roboty, a zwłaszcza te związane z domową opieką zdrowotną powinny być przystępne cenowo,
  • Przy projektowaniu i konstruowaniu robota należy chronić ludzkie dobro, zdrowie fizyczne i psychiczne ludzi, ich bezpieczeństwo oraz prywatność,
  • Robot nie może szkodzić, zranić, oszukać lub wykorzystać użytkownika.

.

Wyłącznik robota "Kill switches"

Każdy inteligentny robot powinien być wyposażony w wyłącznik umożliwiający zaprzestanie jego działalności.

Wytyczne dla użytkowników, właścicieli robotów (np. szpitali)

  • Nie wolno używać robota w sposób niezgodny z zasadami etycznymi lub prawnymi,
  • Nie wolno modyfikować robota, w taki sposób aby mógł on służyć jako broń,
  • Należy mieć świadomość, że każdy robot może mieć zdolności percepcyjne, poznawcze,
  • Należy brać pod uwagę prawo do prywatności osób np. poprzez dezaktywację monitorów podczas czynności intymnych,
  • Nie wolno gromadzić, wykorzystywać ani ujawniać danych osobowych osób korzystających z inteligentnych robotów, bez ich zgody.

obraz.png

Z powyższego wynika, że odrębne prawo dotyczące sztucznej inteligencji jeszcze nie istnieje. Obecnie powstały jedynie jego podwaliny. Zagadnienia prawne muszą uregulować problemy mogące wystąpić na różnych płaszczyznach życia człowieka, a zwłaszcza płaszczyźnie moralnej.

Jednak prawo nie pomoże, jeśli my ludzie – stwórcy, a także użytkownicy nie będziemy odpowiedzialni i odpowiednio dojrzali, odpowiednio moralni do kreacji i współistnienia ze sztuczną inteligencją. Sztuczna inteligencja, którą stworzymy będzie tak odpowiedzialna, dojrzała w swych decyzjach i moralna jak my sami.

Chyba, że zostanie obdarzona wolną wolą albo jej autonomia samodzielnie sięgnie wolnej woli, wówczas będzie zdolna wytworzyć własną moralność ...

Zamieszczam link do sprawozdania, w razie gdyby ktoś był zainteresowany szczegółami:
http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN

Zdjęcia pochodzą z pixabay.com.

Post powstał w ramach Tematów Tygodnia w nawiązaniu do moralności i stworzenia.

H2
H3
H4
3 columns
2 columns
1 column
18 Comments