Новая разработка помогает повысить доверие пользователей к ИИ
Предложена система TrustNet Framework, целью которой стало укрепление доверия к искусственному интеллекту, сообщает Humanities & Social Sciences Communications.

Искусственный интеллект значительно упростил и оптимизировал жизнь человека. Однако без минусов влияния ИИ не обошлось: угрозы безопасности, распространение дезинформации, непреднамеренные несчастные случаи. Чтобы предотвратить существующее сейчас риски, группа исследователей из США и Франции занялись разработкой особой концепции.
Система разработки TrustNet Framework включает три этапа:
- «Трансформация проблемы», когда глобальная задача доверия к ИИ связывается с конкретными научными знаниями.
- «Получение новых знаний», который включает совместную работу ученых и заинтересованных сторон. В рамках этой фазы объединяются ключевые элементы доверия: надежность, риск, пользователь, сферы применения и территория применения.
- «Трансдисциплинарная интеграция», на котором полученные результаты оцениваются с точки зрения практической и теоретической пользы и передаются в общество и науку.
Для создания новой системы ученые привлекли специалистов в области инженерии, психологии, этики, социологии и права.
Ранее писали о том, что, по сообщению ученых, искусственный интеллект уже меняет нашу речь и влияет на то, как мы общаемся.