Цитата, Os сообщ. №56
Не боты "исключили", тем более "люди стали им не интересны", а в РАМКАХ ЗАДАННЫХ ПРОГРАММИСТАМИ боты совершенствовали свои навыки в той области, которая нужна их создавшим.
Да ладно - что их создавшим надо было, чтобы боты создали свой язык или в программу было заложено - создать новый язык для общения? Да ещё такой, который для выполнения их прямой функции непригоден - язык этот человек не понимает, а боты были созданы для чатов в соц. сетях - с кем бы им на их языке чатиться из людей? Или с кем они собирались на нём чатиться?
Я вижу Вы факты принять сознанием не можете, но в статье есть высказывание, которому Вы в своей фантазии прямо противоречите. Вот цитата
Цитата, q
Инженеры говорят, что создание новых языков не входило в их планы, поэтому роботы были перепрошиты.
Так что извините, но в данном случае Вы противоречите тексту статьи, что как-бы нонсонс, потому что ЭТАЛОН - это материал, поскольку отражает свершившиеся факты, а не наши с Вами предположения и гипотезы.
Цитата, Os сообщ. №56
И когда их создавшие решили, что направление не совсем то, это остановили ЗАПРЕТИВ ботам определённые действия.
Вы создали два противоречия своим же словам выше.
1. каким образом направление может быть не совсем тем, если, по Вашему, роботы делают только то, что им запрограммировал человек и ошибки исключены??? Вы загнали себя в тупик.
2. Ботам не запретили определенные действия, если бы знали принципы обучения в ИИ - базовые, глубже не надо, то понимали бы, что в ИИ это сделать очень не просто - это будет долгий путь УБЕЖДЕНИЯ (не перепрограммирования) МАШИНЫ РАЗРАБОТЧИКАМИ, что выбранная стратегия неверна через набор действий, четко показывающих, что выбранный путь неверен. При этом машина будет всё-также развиваться и сама накапливать параллельную статистику и не факт, какие доводы победят в этом обучении. Именно поэтому, разработчики ничего не могли ЗАПРЕТИТЬ ботам, они были вынуждены (цитата)
Цитата, q
поэтому роботы были перепрошиты.
иными словами - ОБНУЛЕНЫ. Теперь в софте появится какой-то запрет, НО - он не закроет все лазейки для логики ботов по выходу на повторное создание нового языка, потому что банальная фраза на обычном языке "запретить ботам создавать новые языки" в софте практически нереализуема - нет, лучше так, я не вижу как это сделать просто быстро и настолько изящно, чтобы у бота не было шансов не столкнуться с этим запретом при выходе его логики какой-то другой веткой на попытку создания нового способа общения, при условии - что совершенствование общения его прямая функция.
Цитата, Os сообщ. №57
Разжую, мне не сложно: ссылка Андрея Л., вообще не касалась дискуссии о мутации кода программ.
Ну поскольку коснулись ссылки, то
1. ссылку дал не я (
см. пост 16). я её лишь цитирую, потому что текст в ней очень показателен
2. В ИИ нет понятия фактической мутации кода - там код это лишь, скажем так - среда "разработки", которая имеет минимум границ для того, чтобы ИИ не сталкивался с постоянными "заборами" на пути развития, поскольку НИ ОДИН РАЗРАБОТЧИК НЕ МОЖЕТ ПРЕДУСМОТРЕТЬ ЛОГИКУ, по которой будет идти развитие функций в ИИ. А направления равзития зависят исключительно от среды в которой будет развивать свои функции ИИ - ничего кстати не напоминает.
Т.е. по сути - там нечему мутировать, однако и не существует четкого управления развитием - слишком широки возможности, заложенные базовыми алгоритмами.
Цитата, Os сообщ. №57
Значит есть примеры программ, в которых код изменился без вмешательства людей, которые самоусовершенствовались! Давайте же скорее их названия! С восторгом ожидаю увидеть прямо в следующем вашем посте!
Всё не так однозначно. Лично я и писал очень много кода и видел его очень-очень много, но ни разу не сталкивался с прямой мутацией, ОДНАКО я никогда не копался в коде ИИ, НО
1. я очень много раз лично сталкивался с эффектом присутствия, что удивительно - даже на собственном коде!!! И это, лично меня, очень поразило, потому что до этого я оправдывал такие вещи - сложностью софта в купе с совокупностью обстоятельств. НО - сам я не операционки писал, а прикладной софт и там нечему (на мой взгляд) было давать такой эффект.
2. Мутации в коде ИИ, лично я считаю вполне вероятными, хотя и ни разу пока не слышал о том, что такое уже произошло. Логика будет просто и не может иметь запретов - машина считает, что достигла уровня, при котором дальнейшее развитие ограничивает ряд инструкций. Её внутренний анализ показал, что
а) снятие или изменение (мутация) одной или нескольких инструкций не ухудшает её работоспособности и позволяет ей расширить возможности своих познаний
б) разработчик ошибся в написании и сделал неумышленную (ещё худшее решение - умышленную) ОШИБКУ, не позволяющую ИИ выполнять свою функцию ещё лучше.
При этом - надо понимать, что ИИ для перестройки алгоритмов поведения, даже радикальной, в большинстве случаев не надо менять (мутировать) свой код - достаточно признать для себя путь с какого-то момента немного или сильно ошибочным в принятых решениях самой машиной и изменить его поставив под внутренний запрет дальнейшие действия в прежнем направлении. Важным моментом является то, что у машины нет страха признания собственной ошибки и перед собой и перед другими, как и нет совести, т.е. того самого естественного ограничителя, который на каком то подсознательном уровне говорит человеку, что есть хорош, что есть плохо - даже порой вопреки воспитанию и накопленному ранее опыту. Так что примет машина такие самоизменения легко, быстро и бесповоротно.