Футуролог: Прилагането на Закона за изкуствения интелект във всички европейски държави трябва да стане факт след две години
Автор: ИА Фокус 19:23 / 02.08.2024Коментари ()1513
©
Европейското законодателство, касаещо изкуствения интелект, е ориентирано към правата на гражданите и е базирано на оценката на видовете риск от употребата на изкуствен интелект. Това каза футурологът доц. д-р Мариана Тодорова в предаването "България, Европа и светът на фокус“ на Радио "Фокус“.

Законодателният акт е в сила от 1 август, като прилагането му във всички държави членки трябва да стане факт след две години.

По Европейския акт за изкуствения интелект започва да се работи още през 2020 г., припомни тя. "След появата на големите езикови и генеративни модели този документ беше сериозно ревизиран, тъй като той не отразяваше тази нова действителност. Появи се декларацията "Блечли“ на правителството на Великобритания, както и "Байдън акт“ – законодателството на Америка. "Байдън акт“ също е ориентиран доста към правата на хората, но там изкуственият интелект се пречупва през призмата на действие в различни сфери – образование, влияние на пазара на труда, конкурентоспособността на Америка“, обясни доц. Тодорова.

Европейският акт дефинира различните рискове, съпътстващи изкуствения интелект, и мерките за тяхното управление. В категорията с минимален риск попадат социалните мрежи, интернет филтрите и алгоритмите. "Самите законодатели вероятно са визирали най-вече социалните медии и интернет съдържанието, където специфични алгоритми разграничават, стратифицират информация и я насочват според интереса на потребителите. Аз бих се замислила дали да поставя тази категория в минимален риск, защото ние регулираме това постфактум, а ефектите невинаги са безобидни. Тук да речем попада и това, че специфично съдържание може да бъде насочвано към определена група хора“, обясни Мариана Тодорова.

Във втората категория попада изкуствен интелект със специфичен риск за прозрачността. Тя касае преди всичко употребата на чатботове, каквито все повече компании и организации използват като комуникация. "Чатботовете могат да събират много чувствителна информация и това се възприема като специфичен риск. Специфичен риск е и това доколко трябва да съблюдаваме някаква дисциплина и да внимаваме какво разкриваме, въпреки че данните също подлежат на регулация и Европейският съюз прилага GDPR регламента. Определена група граждани могат да заведат законодателен иск към Европейската комисия или друго възражение към дадена компания. Ние трябва да извървим доста дълъг път и да уловим всички тънкости, които биха могли да последват от употребата на такива чатботове“, коментира футурологът.

В зоната на високорисковите изкуствени интелекти попадат тези, които се използват за набиране на персонал или за оценка за благонадеждност за отпускане на заем или за управление на автономни роботи. "Тук биха могли да се появят сериозни рискове. От години HR компании използват изкуствен интелект, за да селектират най-подходящите кандидати за определени позиции. Това е класическият пример за проява на дискриминация и на предразсъдъци на изкуствен интелект. Това не е преднамерено, просто той е обучен с определени данни, в които личат нашите нагласи – да речем, винаги да се толерира млад човек до 35-годишна възраст, който е бял и който е мъж. Алгоритмите непрекъснато се подобряват, но рискът винаги съществува. Още по-парадоксални примери могат да се дадат с платформи, използвани от банки за отпускане на ипотечни кредити, в които изкуственият интелект калкулира много фактори, които не са съотносими към благонадеждността на човек да бъде лоялен и добросъвестен кредитополучател“, обясни Мариана Тодорова.

В категорията на неприемлив риск попада изкуственият интелект, използван за анализ на биометрични данни и социално оценяване. Подобна система в момента действа в Китай и в някои страни от Южна Америка. "Също така използването на изкуствен интелект за идентифициране на престъпници, което се използва в САЩ, в Индия, Китай и редица други страни в Средния и Близък изток“, допълни доц. Тодорова.

Футурологът коментира още, че приетите от Евросъюза стандарти няма да са световните стандарти. "Ние рискуваме да създадем различни юрисдикции за прилагане на изкуствен интелект, което ще доведе до хаос. Дано Европа да даде примера за гражданите по цял свят, които биха могли да изискват от правителствата си същите регулации, виждайки, че те са защита на техните права, а не за корпоративни и държавни интереси. Европейската комисия трябва да е много внимателна, защото всяко прекомерно прилагане или препоръка на този закон би могло да се възприеме като цензура и нарушаване на свободата на словото“, каза още Мариана Тодорова.


Още новини от Национални новини:

https://www.burgas24.bg/novini/Bylgaria/Futurolog-Prilaganeto-na-Zakona-za-izkustveniya-intelekt-vuv-vsichki-evropeiski-durzhavi-tryabva-da-stane-fakt-sled-dve-godini-2212782
Copyright © Burgas24.bg. Всички права запазени.