Microsoft говорит о рисках ИИ, которые все предпочли бы игнорировать

На последнем живом мероприятии Microsoft было подробно рассказано о будущем искусственного интеллекта в продуктах компании. Как описано Грани в прямом эфире мероприятия (по неизвестным причинам Microsoft решила не вести прямую трансляцию) компания продемонстрировала, как инструменты искусственного интеллекта в Windows и Bing могут улучшить все: от домашней кухни до веб-дизайна. Однако, в отличие от многих других компаний, Microsoft также рассмотрела потенциально негативное влияние ИИ как широко доступного инструмента.

Опасения по поводу результатов ИИ широко распространены среди технически подкованных пользователей. Даже эксперты предполагают, что настоящий самосознательный машинный интеллект может существовать. в течение следующего поколения или двухПонятно, что люди обеспокоены разрушительным потенциалом ИИ как в качестве инструмента, так и в качестве самостоятельного агентства.

Будучи одной из ведущих мировых компаний-разработчиков программного обеспечения, Microsoft обязательно находится в авангарде этих проблем. В зависимости от события развертывания и

последующий пресс-релиз Что касается своих новых решений искусственного интеллекта, Microsoft приняла эти опасения близко к сердцу и фактически попыталась ответить на опасения пользователей по поводу потенциальных опасностей этой важной инновации в потребительских технологиях.

Говоря о потенциальных опасностях ИИ, мы цитируем Нилая Пателя из The Verge: «Майкрософту приходится тщательно объяснять, как ее новая поисковая система не сможет помочь в планировании школьных перестрелок».

Это заявление суммирует важную часть потенциально темной стороны ИИ. В той степени, в которой кто-либо обращал внимание на опасности ИИ, они, как правило, сосредотачивались на слегка научно-фантастической идее об алгоритме, который совершенствуется, выходя за пределы человеческого контроля и становится независимой, потенциально злонамеренной сущностью. Менее захватывающий, но более вероятный вариант: ИИ может также стать незаменимым элементом худших поступков, которые люди делают друг с другом. Большинство экспертов ожидают, что ИИ станет частью повседневной жизни в мире цифровых технологий. Если это так, то ему потребуются этические гарантии, чтобы не допустить содействия преступности, терроризму и аналогичным должностным преступлениям.

По словам Сары Бёрд из Microsoft, новые инструменты искусственного интеллекта компании имеют встроенные средства защиты. Компания в первую очередь взялась за проблему «разумного злонамеренного искусственного интеллекта», создавая свои решения искусственного интеллекта на основе «второго пилота», требующего человеческого взаимодействия на каждом этапе. Что касается злоумышленников, использующих ИИ в качестве инструмента, The Verge сообщает, что Microsoft «будет постоянно проверять разговоры и анализировать их, чтобы классифицировать разговоры и устранить пробелы в системе безопасности». Эта модель постоянного обновления инструментов безопасности также будет осуществляться на компьютере пользователя. сторона; По словам Берда, «мы пошли дальше, чем когда-либо прежде, в разработке подходов к измерению риска». смягчения последствий», включающий постоянный просмотр подсказок поисковых систем, чтобы гарантировать пользователю контроль над более рискованными действиями ИИ. функции.