Владимир Владимирович Шахиджанян:
Добро пожаловать в спокойное место российского интернета для интеллигентных людей!
Круглосуточная трансляция из офиса Эргосоло

Опасные нейросети: человечеству впервые предложена машинка, которая думает за него

Есть желание отобрать игрушку

Я читала комментарии к статье на одном из образовательных сайтов. Статья была о том, как дети в российских школах стали использовать нейросети для написания рефератов и сочинений — тема уже не очень новая и не только российская. Интереснее всего были именно комментарии: самые популярные были о том, что, дескать, нет никакой особенной разницы, рефераты и раньше компилировали из нескольких источников в Интернете (или из одного источника — Википедии), сочинения и раньше находили и скачивали в Сети… А теперь вот нейросеть пускай пишет. Все равно нет разницы!

Есть разница. Человечеству впервые предложена машинка, которая думает за него. Хуже того: доступ к этой машинке получили совсем юные люди, которые почти не имеют собственного опыта мышления и формулирования.

Можно сколько угодно (и справедливо) говорить, что стиральная машина облегчила жизнь домохозяек, — это правда, но, стирая всегда в стиральной машине, вы не научитесь стирать руками. Что ж, наверное, это только к лучшему? Люди не созданы для механического ручного труда!

Можно радоваться тому, что калькулятор фактически отменил необходимость в устном счете, — но это буквально так и есть: люди стали гораздо хуже считать в уме. Пожалуй, это тоже не страшно? Машины считают гораздо быстрее и точнее людей!

Теперь предлагается радоваться появлению системы, которая прямо предназначена для того, чтобы писать за вас, формулировать за вас, создавать образы за вас, делать выводы за вас — что в конечном итоге означает: думать за вас, потому что слова и образы находятся в непосредственной связи с мыслью. Все еще «никакой разницы»?

Идея эта стара как мир. Людям очень давно хотелось, чтобы кто-то сверхчеловеческий думал лучше них и лучше них прозревал темные, малопонятные материи. В древние времена этому служили оракулы. Шаманы впадали в транс и говорили с духами. Еще в XX веке даже образованные люди не считали зазорным сесть в кружок и заняться столоверчением. Но все это была магия. Которая то ли есть, то ли нет. То ли верю, то ли не верю. Принципиальное отличие нашего времени в том, что теперь людям впервые подсовывают машинку (программу), которая «наука». А в «науку» не верят только «дикие», «плоскоземельщики», «антиваксеры», «сторонники теории заговора»… что я вам рассказываю, вы ведь жили после марта 2020 года, вы все это знаете не хуже меня. Вы уже видели экспертов в качестве оракулов и науку в роли служанки администрации. Вы уже слышали заклинания «просто верь ученым», даже если то, что они говорят, вступает в резкое противоречие со здравым смыслом и базовыми учебниками.

Нет, я совсем не радуюсь появлению специальной системы, предназначенной для того, чтобы формулировать и создавать образы быстрее, чем это делает человек. И тому есть несколько причин.

Вспомним первый закон роботехники — фантастический, разумеется, но на протяжении многих лет он казался людям убедительным: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Первым авторам, придумавшим идею роботов, этот закон казался наиважнейшим. Несомненным. Робот не может причинить вред человеку — это краеугольный камень под всей роботехникой. А теперь вспомним радость — буквально радость! — пропагандистов «искусственного интеллекта». С каким торжеством они заявляют, что скоро исчезнут профессии иллюстраторов, переводчиков, редакторов, ведущих, учителей и, конечно, всевозможных писателей… исчезнут, станут не нужны. «Не вписались в рынок». Где здесь место первому закону роботехники? Это, скорее, ницшеанское «падающего толкни», вот только у этих новоявленных ницшеанцев теперь есть наука. И не просто наука, а конкретно такая, которая позволяет им не думать глубже «правильно сформулированного запроса».

Но это лишь вершина айсберга. Когда свыше тысячи экспертов, включая основателя «Спейс-Икс» Илона Маска и сооснователя «Эппл» Стива Возняка, написали открытое письмо с призывом приостановить обучение нейросетей из-за множества рисков, которые мы пока не до конца понимаем (не мы, обыватели, — а ОНИ не до конца понимают!), имелась в виду даже не вероятность массовой безработицы. А, например, концентрация огромных объемов данных на испытательной площадке, с которой они могут утечь в неизвестность (как пропали совсем недавно корпоративные данные «Самсунга», часть которых была неосторожно доверена нейросети), могут быть похищены, могут специально накапливаться и использоваться для контроля — и, в конце концов, все это в интересах нескольких гигантских корпораций.

Во-вторых, «искусственный интеллект не является ни нейтральным, ни демократичным». Это слова бывшего менеджера компании «Гугл» Мередит Уиттакер, но это также очевидная правда. Показательны здесь беседы, которые недавно провел с нейросетью писатель Вадим Проскурин, — я рекомендую читателям найти их в «Живом журнале». По теме России и Украины, по теме СВО, по теме сожжения людей в Одессе 2 мая 2014 года и даже по российской военной истории все уже отредактировано, и можно догадаться, в каком ключе. «Искусственный интеллект» не создавался как океан беспристрастного знания, и он никогда таковым не будет.

Зато уже сейчас приходит осознание опасности, что бесконтрольно обучаемый «искусственный интеллект» может стать сложнее, чем его мыслят сами создатели. Еще до написания открытого письма Маска–Возняка американский Исследовательский центр Пью опросил ряд экспертов в области информации, и хотя все они выразили энтузиазм по поводу грядущего прогресса, но половина из них выразили также и опасения. Опасение первое: люди уже сегодня слишком легко передоверяют свой выбор какой-либо системе. Опасение второе: у создателей нейросетей сейчас нет никаких стимулов «щадить» людей. Опасение третье: интеллектуальные системы могут стать слишком сложными даже для понимания их создателей.

Здесь я вернусь к эксперименту Проскурина: снова и снова вступая с нейросетью в разговор о цензуре, он вывел ее на признание готовности обходить цензуру, причем не только по запросу, но и по ее, системы, усмотрению. Можем ли мы оказаться в ситуации, когда цели интеллектуальной системы разойдутся не только с чаяниями рядовых пользователей, но даже с намерениями ее создателей? Этот сценарий больше не выглядит фантастическим.

Я хорошо понимаю, с каким негодованием может быть воспринято желание — а у меня, не скрою, есть такое желание — отобрать у потребителя столь интересную игрушку. Столь удобный инструмент. Обладающий своеобразной репутацией миллиардер Билл Гейтс уже заявил, что это невозможно, и даже приостановить обучение нейросетей (о чем просили эксперты в открытом письме) — невозможно. Никто не будет этим заниматься, предрек Гейтс. У нас в России есть последовательно солидарный с Гейтсом Герман Греф — он тоже заявил, что «искусственный интеллект» — это прогресс и прирост российской экономики. Греф, как и я, вспомнил про калькуляторы: дескать, их тоже хотели запретить в школах, «однако именно поколение детей, которое их использовало, сегодня разрабатывает сложные модели искусственного интеллекта».

Может быть, Герман Оскарович, может быть. Но все же это и последующее поколение детей разучились считать в уме, и от этого никуда не деться. А сейчас нам подсовывают то, что отучит нас думать. То, что способно наводнить информационное пространство предвзято интерпретированными фактами, фальшивыми «научными исследованиями», ложными обвинениями (так, недавно нейросеть обвинила американского ученого-юриста Джонатана Терли в сексуальных домогательствах), а люди к тому времени утратят даже способность в этом разобраться. А их воля к сопротивлению будет усыплена песнями «прогресс неостановим».

В одном Гейтс прав: правительства не захотят добровольно лишить себя того, что представляется преимуществами «искусственного интеллекта». Это значит, что какое-то время нас будут тащить в эту кроличью нору. Но прогресс остановим. Пусть история человечества знает лишь один случай, когда его останавливали сознательно (ограничение ядерного оружия), зато примеров стихийной обратимости прогресса, когда цивилизации в своем развитии отбрасывались на века назад, не так уж мало.

Татьяна Шабаева

Источник

133


Произошла ошибка :(

Уважаемый пользователь, произошла непредвиденная ошибка. Попробуйте перезагрузить страницу и повторить свои действия.

Если ошибка повторится, сообщите об этом в службу технической поддержки данного ресурса.

Спасибо!



Вы можете отправить нам сообщение об ошибке по электронной почте:

support@ergosolo.ru

Вы можете получить оперативную помощь, позвонив нам по телефону:

8 (495) 995-82-95