Новая разработка помогает повысить доверие пользователей к ИИ

Предложена система TrustNet Framework, целью которой стало укрепление доверия к искусственному интеллекту, сообщает Humanities & Social Sciences Communications.

Кадр из сериала «Черное зеркало»

Искусственный интеллект значительно упростил и оптимизировал жизнь человека. Однако без минусов влияния ИИ не обошлось: угрозы безопасности, распространение дезинформации, непреднамеренные несчастные случаи. Чтобы предотвратить существующее сейчас риски, группа исследователей из США и Франции занялись разработкой особой концепции.

Система разработки TrustNet Framework включает три этапа:

  1. «Трансформация проблемы», когда глобальная задача доверия к ИИ связывается с конкретными научными знаниями.
  2. «Получение новых знаний», который включает совместную работу ученых и заинтересованных сторон. В рамках этой фазы объединяются ключевые элементы доверия: надежность, риск, пользователь, сферы применения и территория применения.
  3. «Трансдисциплинарная интеграция», на котором полученные результаты оцениваются с точки зрения практической и теоретической пользы и передаются в общество и науку.

Для создания новой системы ученые привлекли специалистов в области инженерии, психологии, этики, социологии и права.

Ранее писали о том, что, по сообщению ученых, искусственный интеллект уже меняет нашу речь и влияет на то, как мы общаемся.