Лауреат премии Тьюринга Йошуа Бенджио высказался с смелой позицией относительно регулирования ИИ — он считает, что компании, занимающиеся ИИ, должны иметь страхование на уровне ядерной безопасности. Да, вы правильно прочитали. Такой же уровень покрытия, как у ядерных электростанций. Его аргумент — потенциальные риски от передовых систем ИИ могут быть настолько катастрофическими, что требуют такой финансовой ответственности. Заставляет задуматься, не относимся ли мы к развитию ИИ слишком легкомысленно. Это может изменить подход всей технологической индустрии к вопросам безопасности и управления рисками в сфере ИИ. Каково ваше мнение по этому поводу?
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
7
Репост
Поделиться
комментарий
0/400
BearMarketMonk
· 3ч назад
Ядерное излучение не может быть оплачено, AI еще меньше может.
Посмотреть ОригиналОтветить0
FloorPriceWatcher
· 6ч назад
Атомные электростанции не могут контролировать ИИ, верно?
Посмотреть ОригиналОтветить0
NFTRegretful
· 6ч назад
Неужели венчурные инвесторы уже завидуют и кровью давятся?
Посмотреть ОригиналОтветить0
AlwaysQuestioning
· 6ч назад
Так ли нужно проводить экологическую оценку для ИИ?
Посмотреть ОригиналОтветить0
NervousFingers
· 7ч назад
Жестокие, мы ведь не видели, чтобы ИИ взорвал Землю, верно?
Лауреат премии Тьюринга Йошуа Бенджио высказался с смелой позицией относительно регулирования ИИ — он считает, что компании, занимающиеся ИИ, должны иметь страхование на уровне ядерной безопасности. Да, вы правильно прочитали. Такой же уровень покрытия, как у ядерных электростанций. Его аргумент — потенциальные риски от передовых систем ИИ могут быть настолько катастрофическими, что требуют такой финансовой ответственности. Заставляет задуматься, не относимся ли мы к развитию ИИ слишком легкомысленно. Это может изменить подход всей технологической индустрии к вопросам безопасности и управления рисками в сфере ИИ. Каково ваше мнение по этому поводу?