Докато машините не са станали по-умни

Изкуственият интелект става все по-могъщ, но правната му регулация изостава

Емил Петров
Емил Петров / 09 September 2019 11:31 >
Докато машините не са станали по-умни
Източник: Shutterstock

Изкуственият интелект (ИИ) отдавна не е само герой на научната фантастика, а все повече навлиза в човешкия живот. В интернет и социалните мрежи той помага за бързото намиране на това, което търсим, и извежда подходящи за нашите предпочитания публикации и реклами. Банките използват чатботове, за да представят интерактивно свои продукти на клиентите си. Дори и на паркингите в "Лидл", подпомогнати от ИИ, камери прочитат номерата на автомобилите и решават кога да вдигат бариерата, без да са валидирали хартиените билети. По целия свят се тества автономно управление на автомобили и камиони.

Перспективите за приложение на изкуствения интелект са почти неограничени и редовно се "стряскаме" от публикации как само след N-години повечето извършвани от хората професии ще бъдат изместени от машини. Но въпреки че технологията се развива бурно и нейното значение нараства, тя все още остава извън правните регулации.

"Европейският съюз се опитва да следва общ подход и цели на наднационално ниво да регулира този въпрос. Но това се случва с бавни стъпки, защото е много сложна материя", казва д-р Мартин Захариев, адвокат в дружество "Димитров, Петров и Ко." и правен експерт от фондация "Право и интернет". "Най-малкото, трябва да изясним какво разбираме под изкуствен интелект, когато искаме да го регулираме, за да работим с едни и същи термини", допълва той.

Затова на европейско ниво е създадена експертна група по въпросите на изкуствения интелект, която се опитва да даде и дефиниция на това какво е ИИ и като цяло да даде определени етични насоки (guidelines) как да се случват прилагането и внедряването му. Последната версия на насоките беше публикувана през април.

Водещ в насоките е принципът за законност – ИИ трябва да действа изцяло в съответствие със закона и всички действащи правила. Но той трябва да бъде и етичен – трябва да се съобразят фактори, правила, стоящи извън правната материя, които имат чисто морално приложение. Друг ключов принцип е устойчивост – да бъде стабилен и надежден както от техническа, така и от социална гледна точка.

"Тези етични насоки са ненормативен документ, който не създава права и задължения. Ключовите за момента правни актове, които с известни условности може да кажем, че регулират изкуствуния интелект, са Общият регламент за защита на личните данни (GDPR) и две директиви на ЕС, приети заедно с GDPR и третиращи противодействието на престъпността и тероризма", казва д-р Захариев. В GDPR например има изричен текст, който въвежда забрана към организациите, които обработват данни, да вземат решения, които юридически засягат правната сфера на хората или ги засягат по друг съществен начин, само на база на автоматизирано вземане на решения. Т.е. само чрез изчислителните способности на машините и без човешка намеса в този процес. В примерите, които самият GDPR дава, е забранено да има практика по подбор на персонал, която да е изцяло автоматизирана – без по веригата да има HR специалист, мениджър или друг човек, който участва в процеса по избор. Друга подобна забранена практика е даването на кредит, при който решението дали ще се отпусне заемът и на какъв лихвен процент, се прави на базата на автоматизирана технология без човешко участие.

Но забраната не е абсолютна. Тя може да бъде преодоляна в някои определени случаи, както и със съгласието на хората, или ако са сключили договор, чийто предмет предполага използването на такава технология обяснява д-р Захариев. "Ако например съм купил умна къща и искам хладилникът ми да се свърже с телевизора, да види кога има мачове, да провери дали има бира и ако няма, да я поръча от мое име, като автоматично задължи моята кредитна карта", дава пример той. Третото изключение е, ако самият закон на европейско или държавно ниво разреши използването на автоматизирана технология.

"Проблемите да се анализират хората и класифицират в определени категории – т.нар. от GDPR профилиране, и да се вземат на базата на това решения, които ги засягат, може далеч да надхвърлят рамките на това, което си представяме като чисто частни отношения, напр. сключване на договор. Има много сериозни проблеми за нашите права и свободи – например при използването на такива технологии за противодействие на престъпността или на тероризма", казва д-р Захариев.

КОНТРОЛ: Юристът д-р Мартин Захариев е категоричен, че изкуственият интелект винаги трябва да бъде под човешки надзор

Едно от все по-често използваните приложения на изкуствения интелект е лицевото и биометрично разпознаване, което се извършва със системи от видеокамери, разположени на обществени места. Това дава възможност за много бързо идентифициране на издирвани лица или подозрителни субекти, но създава сериозни рискове, ако машините сами вземат решение за действие.

"В един момент може да се окаже, че решенията някой да бъде задържан, разпитан или потенциално класифициран като терорист или друг закононарушител може да се вземат от машини, което поставя много сериозни юридически и етични проблеми", смята д-р Захариев.

Той посочва, че според GDPR и т.нар. полицейски директиви дори в изключителните случаи на позволяване на машините да вземат засягащи хората решения трябва да има като минимум право на засегнатия да изрази мнението си, да получи човешка намеса от този, който взема решенията, и да може да оспори това решение.

"Логиката е винаги да имаме надзор от страна на човек над изкуствения интелект и това е казано в самите етични насоки. Там един от основните принципи е човек винаги да стои и да надзирава, потенциално да има възможност за човешка намеса, защото колкото и съвършен да е изкуственият интелект, винаги крие риска от грешки, които могат да бъдат заложени при самото му програмиране, така и да възникнат в хода на неговото функциониране", обяснява юристът.

Други неуредени въпроси са свързани с отговорността и предоставянето на права на изкуствения интелект и как те да се впишат в познатите ни механизми в обществото.

Автономните автомобили са гореща тема, но все още не е ясно кой носи отговорност, ако те причинят вреди, увреждане на здравето или смърт – производителят, ползвателят или търговецът. В САЩ вече има случаи, в които автомобили Tesla в режим на автономно шофиране са причинили смърт – както на водача си след сблъсък с ремарке на камион, така и на внезапно излязъл на пътя пешеходец.

Друга важна сфера, в която също няма норми, е, когато изкуственият интелект създава творчество – например един софтуер прави нова програма, обект на авторско право. Това се случва често – с използване на т.нар. машинно обучение изкуственият интелект се препрограмира, увеличавайки своите възможности. При това дори неговите създатели нямат достатъчно яснота как става това. Но възниква въпросът кой ще бъде носител на правата върху новия софтуер – дали този, който е написал първата програма, или самата програма.

"Можем да се окажем в един момент с изцяло нов субект на правото, който до този момент не е бил познат, защото не сме имали нужните средства, за да го създадем", предполага д-р Захариев. Но поставянето в норми на изкуствения интелект няма да стане само с един регламент или директива.

"Постепенно ще се върви към създаването на дефиниции и регулирането на тези въпроси, но те са многообразни и засягат най-различни сфери – от наказателна превенция до подбор на персонал или кредитиране. Могат да бъдат засегнати всички сфери, които използват информационните технологии, затова е трудно с един комплексен акт да регулираме всичко", казва юристът.

Той смята, че законовата регламентация на ИИ може да стане с пакет от документи или специални правила в отделни сектори, както например по въпросите на гражданската отговорност може да се търси аналог с отговорността за вреди от вещи, деца или лица, които са неспособни да разбират или да ръководят постъпките си, описана в българското законодателство.

Вероятно ще може да се мисли за някакъв вид юридическа отговорност за създатели и ползватели на изкуствен интелект, ако той причини някакви вреди. Според юриста най-правилно би било да има секторен подход – за всеки отделен сектор да има правила, като водещо, както при GDPR, да е изискването за човешка намеса и контрол от страна на човека.

"Правото е консервативен механизъм, следва определени правила и процедури, за да се измени, след като възникне нов проблем или явления и идея как да се уредят. Но докато се завърти този консервативен механизъм, технологиите и изобщо частните компании не спят, което е в основата на това за момента правната регламентация в сферата на ИИ да изостава", заключава експертът.

Текстът е публикуван в брой 34/2019 г. на списание "Икономист", който може да купите в разпространителската мрежа. Вижте какво още може да прочетете в броя.

Exit

Този уебсайт ползва “бисквитки”, за да Ви предостави повече функционалност. Ползвайки го, вие се съгласявате с използването на бисквитки.

Политика за личните данни Съгласен съм Отказ