СУ "Св. Климент Охридски"

Научноизследователски проекти

Skip Navigation Links
 

Търсене

Новини

Вход в системата

 

 





>>Регистрация
>>Забравена парола

Ръководство


Социално обясним изкуствен интелект



21.12.2020 г. 20.12.2023 г.

Неотдавнашната вълна от технологии за Изкуствен Интелект (ИИ, базирана на машинно обучение (МО), има огромно обществено и икономическо въздействие, като ИИ е (често невидимо) вграден в повечето от ежедневните ни приложения (като виртуални асистенти, проследяващи устройства, социални медии, препоръчващи системи). Изследователската общност (и обществото като цяло) вече разбра, че настоящият централизиран подход към ИИ, при който личните ни данни се събират и обработват централно чрез непрозрачни МО („черни кутии“), не е приемлив и устойчив модел, който да се следва в дългосрочен план. Считаме, че „следващата вълна“ на ИИ, управлявана от МО, ще бъде (1) ориентирана към човека, (2) обяснима и (3) по-разпределена и децентрализирана (а не контролирана централно). От една страна, тези принципи са насочени към обществените и етични очаквания за надежден ИИ, като препоръките на европейско ниво (например, докладът AI HLEG включва човешка намеса, прозрачност, обяснимост). От друга страна, те отговарят на ясна тенденция за разработване на децентрализиран МО със стриктни технически изисквания, например, производителност, мащабируемост, ограничения в реално време. Проектът ще разработи научните основи за нови ИИ системи, базирани на МО, осигуряващи (1) индивидуалност: всеки индивид е асоцииран със собствения си „Персонален ИИ асистент“ (ПИИА), който действа като пълномощник на индивида в сложната екосистема на взаимодействащи ПИИА; (2) персонализиране: ПИИА обработва данните на лицата чрез обясними модели на ИИ, съобразени със специфичните характеристики на техните човешки двойници; (3) целенасочено взаимодействие: ПИИА си взаимодействат помежду си, за да създадат глобални модели на ИИ и / или да излязат с колективни решения, като се започне от местните (т.е. индивидуални) модели; (4) ориентирани към човека: взаимодействието между ПИИА се задвижва от (количествено измерими) модели на индивидуалното и социалното поведение на техните потребители; (5) обяснимост: техниките за МО са разширени чрез измерими модели на поведение на човека и анализ на научен мрежови анализ, за да се направят глобалните модели на ИИ да бъдат обясними по подразбиране. Крайната цел на проекта е да предостави основополагащи елементи, позволяващи на децентрализирано множество от ПИИА да развие локални и глобални модели на ИИ, чиито процеси и решения са прозрачни, обясними и съобразени с нуждите и ограниченията на отделните потребители. За тази цел проектът ще реализира (1) ПИИА, персонална дигитална платформа, където всеки човек може да интегрира, съхранява и извлича смисъл от собствените си цифрови „следи“ на персонално и безопасно място, както и да се свързва с ПИИА на други потребители; (2) локални модели на ИИ, ориентирани към човека; (3) глобални, децентрализирани модели на ИИ, произтичащи от човешки взаимодействия между ПИИА; (4) персонализирана обяснимост на ниво локални и глобални модели на ИИ; и (5) конкретни случаи на използване за утвърждаване на принципите за проектиране, основани на реални набори от данни, в областта на управлението на частния поток от информация, разпространението на мнения и откриването на фалшиви новини в социалните медии.
Изкуствен Интелект, Машинно самообучение, Големи данни, Обясним ИИ

Детайлна информация

Международен
CHIST-ERA ERA-NET МОН - Фонд „Научни изследвания”
148644,00 0,00

Координатор


Софийски университет "Св. Климент Охридски"

Проф. Силвия Илиева

Участващи подструктури на СУ "Св. Климент Охридски"



Ръководител(и) в СУ "Св. Климент Охридски"



Професор, sylvia@fmi.uni-sofia.bg

Партньори на проекта



Научни прояви

<януари 2021 г.>
пнвтсрчтптсбнд
28293031123
45678910
11121314151617
18192021222324
25262728293031
1234567