darth_vasya: (Бойтесь!)
[personal profile] darth_vasya
В прошлом посте про эволюцию упоминалось выступление философа Дэвида Чалмерса на Singularity Summit. Я сейчас вкратце перескажу содержание лекции, а потом перейду к мыслям.

Чалмерс рассматривает различные способы создания сверхчеловеческого искусственного интеллекта и приходит к выводу, что единственный реальный путь его добиться - это "симулированная эволюция". Предлагается создать некую Матрицу, в которой тем или иным образом интеллектуальные алгоритмы подвергаются генетическому отбору. Не обязательно это должна быть прямо симуляция нашего мира, всех 15 миллиардов лет его истории и т.д., можно ограничиться и чем-то более простым. Вообще-то, как бы я ни ругал эволюцию, подход представляется довольно толковым. Почему это должно сработать:

- Достоверно известно, что эволюция может порождать интеллектуальные системы.
- Никаких принципиальных ограничений этому процессу в плане масштабов достижимого не видно.
- Можно начинать с малого: для остальных вариантов нужно, грубо говоря, силами человеческого интеллекта придумать интеллект, который сможет придумать интеллект, более интеллектуальный, чем то, что мог бы придумать человек (очень грубо говоря); для эволюции достаточно механизма изменчивости и механизма отбора.

Таким образом можно было бы преодолеть барьер, отделяющий нас от интеллекта, способного придумывать что-то интеллектуальнее нас. Дальше очень быстро наступает Intelligence explosion - самоускоряющееся развитие ИИ и та самая Сингулярность. Теперь ещё один важный момент - как бороться со сценарием "Терминатора":

Во-первых, конечно, никаких гарантий, что получившийся интеллект не будет каким-нибудь ужасно злонамеренным, нет, но зато мы всегда можем остановить эксперимент и повторять заново, пока не получится что-нибудь белое и пушистое. (При этом возникает вопрос этичности "выдёргивания вилки из розетки", но можно же и не совсем выключать, а просто очень-очень замедлить до тех пор, пока не сделается интеллект такой добрый и такой сверхсверх, что сможет переделать этот в добрый. Если, конечно, так поступать этично.)

Во-вторых, пользуясь терминологией "Матрицы", в симулируемом мире не должно быть "красных пилюль", то есть очевидных способов для ИИ перебраться из симуляции в нашу реальность. Это понятно, но толку мало: если мы даже пассивно наблюдаем за действиями ИИ в симуляции, он уже таким образом косвенно влияет на наш мир. Даже если оставить в стороне всякие хитрые схемы, на худой конец он просто может кого-нибудь убедить сделать "красную пилюлю", пообещав большие бонусы. Поэтому,

В-третьих, если уж информация может поступать из симуляции в наш мир, очень важно, чтобы никакая информация вообще не поступала из нашего мира в симуляцию. Тогда у ИИ просто не будет шансов узнать о нашем существовании, а если всё-таки догадается, будет некоторая фора прежде, чем он изобретёт какой-то способ проверить и добиться реакции на свои действия. Соответственно (см. во-первых), руку на регуляторе скорости симуляции таки нужно будет держать постоянно.

Вот вкратце содержательная часть лекции, ну а вот что лично мне подумалось:

1. Действительно, выглядит всё довольно разумно, и если это впрямь особенно хороший способ создавать искусственные интеллекты, то следуя цепочке рассуждений Ника Бострома (оригинал, перевод), приходим к тому, что мы опять-таки практически наверняка живём в Матрице. Более того, если вспомнить, что вместо точной эмуляции нашей физической реальности можно ограничиться чем-то более простым, то становится очевидно, что "там, снаружи" должен быть куда более сложный и интересный мир!

2. Совершенно необязательно таким методом создавать "универсальный интеллект" (тем более, что, как говорилось выше, с этой точки зрения плюшек от эволюционных алгоритмов может оказаться не так много). Можно вполне себе ограничиться паразитированием на "ущербных" симулируемых интеллектах, подсовывая им своё домашнее задание по математике как физические законы их вселенной. В связи с этим хотелось бы отметить интересные обстоятельства:

а) Много очень разных явлений описываются одними и теми же законами - надо сказать, тут народ давно подозревает что-то неладное.
б) Не будем забывать про рассуждения о "точной настройке" физических констант.
в) Как нам указывает Макс Тегмарк, на самом деле наша вселенная с математической точки зрения довольно проста. Фактически, она вообще почти не содержит информации. (Чуть построже: если мир действительно "квантовый", то количество алгоритмической информации в нём может быть *удручающе* мало.)

3. Творцу палиться совершенно ни к чему. Даже если мы живём в Матрице и у неё есть Архитектор, являться обитателям в виде горящих кустов и прочих изображений на жвачке ему ну совершенно не резон, он был бы полным дураком, если бы так делал.

4. Возвращаясь к "в-третьих" и к 1 (про сложный и интересный мир снаружи). Даже если не допускать вообще попадания информации в Матрицу, рано или поздно эволюционирующие в ней интеллекты могут просто сами до всего додуматься. Может, мы и живём в реальной реальности, а Бостром ошибается, но ничто не помешает в виртуальной возникнуть такому же виртуальному Бострому, который на сей раз окажется всё-таки прав, да ещё и сможет местное население в этом убедить. Если ты действительно поверил в то, что живёшь в симуляции, *единственной* осмысленной вещью далее становиться отыскание способов вылезти наружу. В замечательной книге Charles Stross - Accelerando, кстати, упоминается между делом "timing channel attack on the computational ultrastructure of space-time itself". Ну да атаки по времени - это, конечно, очень круто (всякие там руткиты да гипервизоры - начиная, например, вот отсюда можно по ссылкам до потрясающе интересных вещей дойти), но всё-таки несколько прямолинейно. Если выращивающие нас архитекторы действительно заняты отбором (см. "во-первых") высоконравственных интеллектов, это значит, что с наибольшей вероятностью мы либо ещё не достигли того уровня развития, когда, на их взгляд, уже пора говорить о нравственности, либо наши представления о нравственности более-менее совпадают с их. Как же, в таком случае, можно проверить и добиться реакции? Ну, тут вариантов много. Вероятно, самый действенный был бы - геноцид разумных существ (только нужно, чтобы при этом в живых оставалось достаточно много, иначе просто выдернут вилку из розетки). Посему итог, с точки зрения симулируемых интеллектов, можно подвести так:

Хочешь выбраться из проклятой коробки?

ВОРУЙ
@
УБИВАЙ

Date: 2010-05-06 01:14 pm (UTC)
From: [identity profile] qizz.livejournal.com
хороший же пост
но в голову лезет почему-то только виндж )

Date: 2010-05-06 03:45 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
спасибо :)
а что у винджа про симуляции?

Date: 2010-05-07 08:47 am (UTC)
From: [identity profile] qizz.livejournal.com
Да мне просто вот эта забота о том, "как бы оттуда чего не вылезло" живо напомнила, как в начале A Fire Upon the Deep чуваки этот момент успешно зафейлили :)

Date: 2010-05-09 08:55 am (UTC)
From: [identity profile] darth-vasya.livejournal.com
Дадада :) В общем-то, он и является одним из основателей всей этой ИИшной сингулярностной тематики.

Date: 2010-05-09 08:40 pm (UTC)
From: [identity profile] darxon.livejournal.com
Зафрендил. Почитал. Есть что сказать, но для комментов получилось многовато, написал у себя отдельный псто http://darxon.livejournal.com/37521.html.

Хоть относится не только к этой записи, решил написать сюда, а не в верхний пост, туда как-то слишком официально:)

Date: 2010-05-09 09:13 pm (UTC)
From: [identity profile] eslitak.livejournal.com
> Чалмерс рассматривает различные способы создания сверхчеловеческого искусственного интеллекта и приходит к выводу, что единственный реальный путь его добиться - это "симулированная эволюция".

Не понятно только, к чему именно надо стимулировать. В смысле, нет надежных критериев интеллекта. Ну, разве что, тесты Айзенка :)

Date: 2010-05-09 09:27 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
Симулированная, без "т". Касательно критериев интеллекта - да, строгих "универсальных" по понятным причинам нет, но под конкретную специфику можно выбирать какие-то конкретные, специальные.

Date: 2010-05-09 09:48 pm (UTC)
From: [identity profile] eslitak.livejournal.com
> Симулированная, без "т".

Ага, это я очитался.

> Касательно критериев интеллекта - да, строгих "универсальных" по понятным причинам нет, но под конкретную специфику можно выбирать какие-то конкретные, специальные.

После прочтения книжки Пенроуза я перестал думать, что интеллект - это алгоритм. Так что не понятно, что именно надо подвергать эволюционному отбору.

Date: 2010-05-09 09:59 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
Во-первых, про Пенроуза. Книжку не читал, но если вы про его квантовые микротрубочки, то его, конечно, можно понять, поскольку он специалист по квантАм, а как известно, если у вас в руках есть молоток, то все окружающие предметы вдруг начинают походить на гвозди. Про это ещё с его отцом истории были: http://nature-wonder.livejournal.com/166493.html

Если не про микротрубочки, то мне потребуется краткое изложение ваших с Пенроузом возражений (чему бы вы ни возражали) ;)

По части "интеллект это алгоритм" мне наиболее симпатична метафора Марвина Мински о том, что (цитата по http://fregimus.livejournal.com/19136.html) понятие интеллекта (не только искусственного) подобно понятию «неисследованные области Африки» — оно исчезает по мере того, как мы его изучаем. Слишком много очень разных вещей объединяют под словом "интеллект". В этом смысле это не термин, а, действительно, некий ящик для накопления всего того, что мы ещё не понимаем, но оно нам интересно.

А вы не читали "Феномен науки" Турчина?

Date: 2010-05-09 11:55 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
У вас интересное жеже, я на свежую голову постараюсь ещё к нескольким записям прикомментиться :)

Date: 2010-05-10 05:32 am (UTC)
From: [identity profile] eslitak.livejournal.com
Нет, я не про микротрубки. Я об идее про то, что интеллект способен решать не алгоритмические задачи.
Если совсем коротко, то "мы с Пенроузом" :) базируемся на теореме Геделя. Согласно ей существуют истинные утверждения, принципиально не выводимые алгоритмически. А интеллект такие утверждения может, тем не менее, порождать.

Турчина не читал. Рекомендуете?

Date: 2010-05-10 07:39 am (UTC)
From: [identity profile] darth-vasya.livejournal.com
Боюсь, reductio ad Gödelum в данном случае не работает. Теорема вообще-то имеет очень чёткую область применимости, и в большинстве случаев, когда её пытаются натянуть на что-нибудь ещё, это делается нестрого (всякими формулировками типа "существуют истинные утверждения, принципиально не выводимые алгоритмически", которые просто неправильны), а тогда и вся её теоремовость пропадает. Вот, у Fregimus'а есть серия очень познавательных постов как раз про теорему Гёделя и интеллект: http://fregimus.livejournal.com/80970.html

Опять же, Пенроуз математик, поэтому ему везде видятся теоремы :)

Турчина рекомендую *настоятельно*. http://refal.net/turchin/phenomenon/

Date: 2010-05-10 07:47 pm (UTC)
From: [identity profile] free-logic.livejournal.com
" Вероятно, самый действенный был бы - геноцид разумных существ (только нужно, чтобы при этом в живых оставалось достаточно много, иначе просто выдернут вилку из розетки"

Не понял... Ведь выключат того, кто будет заниматься геноцидом. В этом рассуждении все особи одной эволюционирующей системы - это один эволюционирующий интеллект или много?

Date: 2010-05-11 04:58 am (UTC)
From: [identity profile] free-logic.livejournal.com
Кста, вот к этому "Как нам указывает Макс Тегмарк..." вряд ли можно относиться серьезно, ввиду неполноты квантовой теории.

Date: 2010-05-11 08:53 am (UTC)
From: [identity profile] darth-vasya.livejournal.com
Выключение = поступление в систему информации извне. Как только ты спалил сверхинтеллекту, что ты существуешь, он практически гарантированно выбирается из коробки (убеждает тебя его выпустить).

Особи эволюционирующей системы в данном случае - много интеллектов. Если кто-то один будет заниматься геноцидом, то да, проще всего будет его нафиг удалить, а остальных замедлить. А если их там целая компания, и один героически жертвует собой, пытая и убивая разумных существ, пока остальные ждут сигнала извне в форме выключения того? В обшем, думаю, при достаточном желании можно было бы придумать варианты "устойчивого геноцида" :)

Date: 2010-05-11 08:54 am (UTC)
From: [identity profile] darth-vasya.livejournal.com
Ну что значит "неполноты"? Мир квантовый или нет? Если квантовый, то, ИМХО, неважно, что там за уравнение, Шрёдингера или не Шрёдингера.

Date: 2010-05-11 02:05 pm (UTC)
From: [identity profile] free-logic.livejournal.com
Примерно так я тебя и понял, но меня смутило, что ты предлагаешь "жертвовать". Т.к. это не очень похоже на сильную концепцию :)), то решил переспросить.
Однако мне кажется, что если бы кто-то занимался эволющионным разведением интеллектов, то он рассматривал бы всю эволюционирующую систему как один интеллект и при этом завел бы много таких систем. В противном случае, как ты подметил, ему пришлось бы вмешиваться в эволюцию и "подчищать" особей, которые ему не нравятся. Такое искусственное вмешательство могло бы нарушить устойчивость системы или привести к другим нежелательным результатам.

Date: 2010-05-11 02:09 pm (UTC)
From: [identity profile] free-logic.livejournal.com
Вопрос, видимо, в том, в каком смысле мир "квантовый". В текущем смысле он квантовый только на ничтожно малых масштабах. На больших масштабах квантовую теорию надо дополнять. Возможно, это приведет к более широкому взгляду на "квантовость"

Date: 2010-05-11 06:08 pm (UTC)
From: [identity profile] eslitak.livejournal.com
В данном случае теорему Геделя натягивают не "на что-то ещё", а на ту область, под которую она как раз и заточена: на алгоритмы.

А почему утверждение "существуют истинные утверждения, принципиально не выводимые алгоритмически" Вы считаете неправильным? Скажем, аксиомы любой формальной системы являются именно такими утверждениями: мы их не выводим, но полагаем истинными.

Посты по ссылке посмотрел, и оставил там комент, который продублирую здесь. Автор пишет:

> Можно ли построить алгоритм, делающий предположения? Конечно, можно — мы найдем множество таких алгоритмов в любой самообучающейся системе

Сомнительно. Все "предположения" алгоритмов - это выводимые утверждения. Пенроуз же настаивает на том (и я с ним согласен), что человеческое сознание, в отличие от алгоритма, способно генерировать невыводимые, но верные утверждения - идеи.
Конечно, принципиально и машина может такие утверждения выдавать, хотя бы тупо используя генератор случайных последовательностей. Но тут есть две проблемы. Во-первых, в любом мало-мальски сложном алфавите множество последовательностей чрезвычайно велико, а значит, вероятность за разумное время сгенерировать методом тыка что-нибудь полезное крайне мала. Во-вторых, если алгоритму даже и удастся случайно выдать идею, то как, скажите, он сможет определить, что эта идея верна? Ведь в его формальной системе никаких методов верификации новой идеи принципиально не существует. А вот человеческому сознанию верность идеи бывает "очевидна".

Date: 2010-05-12 10:58 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
Но дополнение же не отменит "квантовости"? Вроде, всякие там скрытые параметры не работают...

Date: 2010-05-12 11:03 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
> он рассматривал бы всю эволюционирующую систему как один интеллект

Ну не знаю. Я вот гляжу на человечество - и что-то язык не поворачивается назвать его интеллектом, это всё-таки нечто другое. С другой стороны, я вижу многое в человечестве, что вполне оправдало бы вмешательство и "подчищение" некоторых особей, но вот если бы из-за этих особей человечество "подчистили" *целиком*, я бы это не счёл очень этичным. Ну и, соответственно, если бы передо мной стоял выбор, кого "подчищать", я бы допустил, что там тоже не все согласятся :)

Устойчивость системы - фиг с ней, можем вмешаться ещё раз, если что. А вот другие нежелательные результаты - "выпускание сверхинтеллекта из коробки" - это да.

Date: 2010-05-12 11:08 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
Что касается очевидности - очевидно оно не сознанию, а подсознанию. Грубо говоря, там имеется некий классификатор (см. Турчина), который совершенно побоку от нашего внутреннего монолога выдаёт нам на вход это вот "ощущение", а сознание дальше ищет ему подтверждения (изредка - возможные опровержения).

Что касается алгоритмов - машина Тьюринга плюс оператор уже не является алгоритмом. Или - машина Тьюринга плюс окружающий мир. (Это если мир не является алгоритмом, ну а если является - то человек тоже.)

Но что мы всё про алгоритмы да про алгоритмы... Пенроуз со своим молотком просто не понимает всю сложность мозга, из 10^12 совершенно алгоритмических клеток запросто может получаться поведение, которое на первый (и на второй, и на третий) взгляд с понятием "алгоритм" ну никак не увяжется. Ну и что? Проблема-то во взгляде, а не в клетках.

Date: 2010-05-14 10:48 am (UTC)
From: [identity profile] free-logic.livejournal.com
Окуда я знаю? В классическом смысле, может, и отменит. Сама концепция может измениться. На текущий момент, думаю, очень спекулятивно записывать ур-ие Шредингера (или кого-то другого) для вселенной

Date: 2010-05-14 10:54 am (UTC)
From: [identity profile] darth-vasya.livejournal.com
Предлагаю тогда пока считать что не отменит, но помнить, что в принципе может и отменить.

Date: 2010-06-02 10:44 pm (UTC)
From: [identity profile] atrus-at-lj.livejournal.com
> "там, снаружи" должен быть куда более сложный и интересный мир
И тупые творцы с IQ 60? ;-)

Уже думал об этом.

Date: 2010-06-02 10:52 pm (UTC)
From: [identity profile] darth-vasya.livejournal.com
Нет, не 60, конечно. И не 110. Но смотрите: как только мы достигаем уровня развития, достаточного для воплощения своего собственного проекта по "эволюционированию ИИ", наступает эффект лестницы (http://refal.net/turchin/phenomenon/chapter05.htm), и мы уже можем запускать вложенные симуляции. Скорее всего, в этот самый момент* мы как раз и достигнем примерно уровня тех, кто находится "там, снаружи" (по крайней мере, уровня на момент запуска нашей симуляции :)).

--
*(Futurama, A Head In The Polls)
Fry: Professor, when did you become so obsessed with voting?
Professor Hubert Farnsworth: The very instant I became old.

Profile

darth_vasya: (Default)
darth_vasya

August 2016

S M T W T F S
 123456
7891011 1213
14151617181920
21222324252627
28293031   

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Apr. 11th, 2026 03:22 pm
Powered by Dreamwidth Studios