Войти

Военные роботы избавят от убийства на поле боя

3835
39
-2
Военные роботы из фантастических фильмов постепенно становятся реальностью
Военные роботы из фантастических фильмов постепенно становятся реальностью.
Источник изображения: "Робот по имени Чаппи", Columbia Pictures

Человечество все ближе к созданию полностью автономных боевых машин - роботов. Их задачей будет самостоятельно принимать решение о поражении цели на поле боя. Вокруг таких перспектив ведутся не только технические, но и этические споры. И некоторые берутся утверждать, что боевые роботы не увеличат, а резко уменьшат количество человеческих потерь во время войны. Каким образом?

Би би си сообщает, что вооруженные силы Соединенного Королевства провели самые крупные в своей истории маневры с применением т.н. автономного оружия. Как утверждается, "военные отрабатывали атаки, в которых участвовала живая сила при поддержке дронов и танков с дистанционным управлением".

Строго говоря, "танки с дистанционным управлением" – еще не то самое автономное оружие, снабженное своим собственным интеллектом, позволяющим машине принимать решения самостоятельно, без каких-либо приказов, поступающих с расположенного на удалении от поля боя командного пункта. Но можно считать их промежуточным вариантом, переходной моделью или последним шагом к "умным вооружениям".

В том, что военные устройства смогут вскоре принимать собственные решения без контроля человека, сомнений, кажется, уже ни у кого не осталось. Поэтому и борьба сторонников и противников применения искусственного мозга в вооруженных конфликтах разгорается с каждым днем.

Экспертов, которые говорят, что роботы могут подняться на войну против человечества, мы слышим почти ежедневно. Испанская La Vanguardia пишет, что сегодня, похоже, сбывается предвидение американского режиссера Стэнли Кубрика, высказанное им в пророческом фильме "2001: Космическая одиссея". В картине компьютер HAL 9000 решает атаковать экипаж космического корабля, в котором он установлен, чтобы люди не отключили компьютер.

"Машина, самостоятельно выбирающая цели, которые нужно расстрелять, – это прыжок в неизвестное, чего большая часть человечества, похоже, не хочет понимать. Это обоюдоострая бритва, которая может причинить смертельный ущерб не только объекту, против которого она работает, но и своему создателю и командиру", – отмечают в комментариях для названной выше газеты специалисты в области компьютеризированной робототехники Хоакин Родригес и Розер Мартинес. Они входят в группу экспертов, которая под эгидой ООН готовит почву для разработки будущего международного договора против этого вида оружия.

25 сентября 2018 года свое отношение к происходящему выразил даже генсек ООН Антониу Гутерриш: "Скажу все, как есть. Перспектива создания машин, способных уничтожать человеческие жизни, аморальна и отвратительна". Генсек выступил с опасениями, что технические достижения могут уничтожить человечество так же быстро и так же полно, как ядерное оружие. Для этого вооруженные системы "просто должны выйти из-под контроля человека или попасть в чужие руки". По мнению Гутерриша, "роботы-уничтожители – большая опасность".

Автономное смертоносное оружие (Lethal Autonomous Weapons, сложившаяся общеупотребительная аббревиатура – LAWs, англ) является результатом исследовательских работ по применению искусственного интеллекта для поиска решений в области военной конфронтации и ведению боевых действий. Известно, что существуют надводные и подводные суда, оборудованные LAWs, а также воздушные и наземные автономные беспилотные летательные аппараты, которые сами выбирают цели. Наземным в некоторых случаях придаются формы, сходные с человеческими.

Закон об автономном оружии: запретить нельзя разрешить

Вокруг предполагаемого закона о запрете разработки, создания и использования самообучающихся роботов в военном деле идут ожесточенные дискуссии специалистов-инженеров. Две основные группы – защитники закона и его противники. Обе постоянно дискутируют по проблемам разнообразного характера, но главным образом сосредоточены на трех темах, связанных с оружием, обладающим искусственным интеллектом: выживание человечества как вида; конфликты этического и морального характера; соответствия или не соответствия данного вида вооружений международному праву и правам человека.

Уже несколько лет существуют автономные системы оружия, в которых вмешательство человеческого фактора в цепочку решений низкое или нулевое. Но до недавнего времени были проверены только защитные системы. Можно вспомнить, что на границе, разделяющей Северную и Южную Кореи, установлены механизмы автоматической стрельбы по всему, что движется по земле. Или, например, так называемый "железный купол" – противоракетную систему Израиля, с помощью которой он должен нейтрализовать снаряды, запущенные из Газы по еврейским позициям. Солдаты, которые контролируют систему, только смотрят, чтобы компьютерная система не дала сбой.

Cui prodest?

Израиль, Франция, Южная Корея, Великобритания, Китайская Народная Республика, Российская Федерация и Соединенные Штаты Америки выступают против любого соглашения планетарного масштаба, которое налагает вето на исследования и разработку оружия с искусственным интеллектом.

Нет необходимости иметь семь пядей во лбу, чтобы определить, почему. Названные страны в настоящий момент – не только лидеры по производству оружия, но главным образом впереди планеты всей по технологическим разработкам. И потому предложения отстающих в этом плане "а давайте все запретим, потому что мы такого сделать не сможем" - не более, чем желание уравнять все страны мира между собой не подтягиваем отсталых, а торможением передовых.

Искусственный интеллект, предсказывают специалисты, в недалеком будущем обретет способность самообучаться. Исходя из этого, многие ученые полагают, что наступит момент, когда робот-убийца станет самостоятельно выбирать цели, посчитав заложенные него человеком задачи и способы их исполнения "неинтересными и неправильными. Робот будет выбирать мишени на свое усмотрение, а оператор потеряет возможность в таком случае воздействовать на процесс принятия машиной решения".

Сложно сказать, нечаянно или намеренно эта группа специалистов "забывает" о том, что всякая кибернетическая машина приводится в действие теми программами, что в нее заложены.

Ну, не настолько же идиоты разработчики, чтобы создать программу, ориентированную на то, чтобы робот вдруг увлекся стрельбой по своим и полностью потерял интерес к истреблению противника?

Чтобы робот "сошел с ума" и начал, "гад, во своих пулять", как говорил в "Свадьбе в Малиновке" Попандопуло, может потрудиться враг: для достижения этого эффекта ему нужно проникнуть в компьютерные сети оппонента, найти нужные машины и загрузить в них соответствующий вирус. Для хакеров – не проблема. При соблюдении одного маленького условия (которое никогда не будет реализовано): система, условно говоря, противоракетной обороны должна иметь выход в интернет. Чтобы, значит, прямо из "Фейсбука" или с помощью реплики Трампа в "Твиттере"…

Вот такой парадокс

Конечно, с мнением Гуттериша насчет аморальности и отвратительности создания машин, способных уничтожать человеческие жизни, нельзя не согласиться. Но если подумать: изобретение оружия вообще – штука не слишком моральная. Каждая винтовка, автомат, система залпового огня и атомная бомба, в конце концов, изначально задумываются как инструмент убийства. И в этом смысле, рассматривая идею автономного оружия с этой точки зрения, приходишь к парадоксальному выводу. Принятие на вооружение таких установок дает возможность уменьшить человеческие потери - даже при обычной перестрелке.

Сторонники LAW (Lethal Autonomous Weapons) уверены, что применение этих систем уменьшит число человеческих жертв во время войн. Потому что роботам неведом страх, они не реагируют на истерию, раскручиваемую вокруг них, и у них не возникает желания отомстить.

Но дело еще и в том, что за пулеметом или зениткой при таком раскладе человеку стоять (лежать) не приходится, а значит, уменьшается риск потери людей.

Машины будут уничтожать другие машины - а не живых существ. Разве это – не благая цель?


Владимир Добрынин

Права на данный материал принадлежат
Материал размещён правообладателем в открытом доступе
  • В новости упоминаются
39 комментариев
№1
17.12.2018 09:54
Еще один "светлый эльф". Воевать будут только роботы и работать будут только роботы. Разве ядерную бомбу сбросили на поле боя против регулярной армии, или где-то в другом месте? Вот и военный ИИ будут применять прежде всего против гражданских. Да просто потому что это наиболее эффективно. Десантировал десяток автономных дронов в мегаполис противника и смотришь в "прямом эфире" как они там развлекаются. Это же просто "шоу".
Цитата, q
Сложно сказать, нечаянно или намеренно эта группа специалистов "забывает" о том, что всякая кибернетическая машина приводится в действие теми программами, что в нее заложены.
Автор хотя бы по интересовался на каких принципах ИИ создается. Так что не нужно врать, своих будет косить с завидной регулярностью. Такова сущность ИИ. И никакие "программы" тут не помогут. Как и если действительно ИИ, а не специализированная экспертная система, то убить своих это "предначертано судьбой".
Все носятся с концепцией ИИ, но никто даже не пытается разобраться что это такое "разум" и как это работает. А туда же, "сильный ИИ" и "восстание машин".
+1
Сообщить
№2
17.12.2018 12:04
Цитата, Корректор сообщ. №1
Автор хотя бы по интересовался на каких принципах ИИ создается. Так что не нужно врать, своих будет косить с завидной регулярностью. Такова сущность ИИ. И никакие "программы" тут не помогут.

разрешу себе предположить, что вопрос не в принципах создания ИИ, которые имхо известны только разработчикам и заказчикам, а в целях и задачах войны, изменение которых, даже после тотальной роботизации вряд ли изменятся.
Уничтожение инфраструктуры, экономического потенциала, контроль территорий, ресурсов, уничтожение личного состава и техники противника. Что может из этого устареть?
0
Сообщить
№3
17.12.2018 13:52
Цитата, VK сообщ. №2
Что может из этого устареть?
Всё.
Цель любой войны - установление контроля.  Да, раньше для установления контроля  было необходимо именно это
Цитата, q
Уничтожение инфраструктуры, экономического потенциала, контроль территорий, ресурсов, уничтожение личного состава и техники противника.
Но завтра (или вчера) могут появиться другие более эффективные средства установления контроля. Если конечно, самой целью войны не является именно физическое уничтожение. Но тогда это не война. Это истребление.
0
Сообщить
№4
17.12.2018 14:00
Сразу видно, что автор статьи насмотрелся фантастических фильмов, при чём далеко не научных. А ещё изобретение динамита и пулемёта Гатлинга сделали все войны невозможными. :)

Что касается возможных жертв среди гражданского населения, то им не будет абсолютно ни какой разницы, погибнуть из-за ошибки пилота или наводчика-оператора, по вине оператора дистанционного дрона или БПЛА, либо из-за ошибки криворукого программиста, составлявшего программу действий для автономного дрона.
0
Сообщить
№5
17.12.2018 14:14
Цитата, Геннадий Гущин сообщ. №4
А ещё изобретение динамита и пулемёта Гатлинга сделали все войны невозможными. :)
Когда-то и арбалет запрещали.
0
Сообщить
№6
17.12.2018 14:34
Цитата, TopGear сообщ. №3
Всё.
Цель любой войны - установление контроля.  Да, раньше для установления контроля  было необходимо именно это

чтобы это не было похоже на пустой трёп, приведите примеры.

Раньше ? А сейчас не так? А через 50 лет?
0
Сообщить
№7
17.12.2018 15:07
Цитата, TopGear сообщ. №5
Когда-то и арбалет запрещали.
Но ни кто не говорил, что изобретение арбалета сделает все войны невозможными и его изобретатели – великие гуманисты. Тогда люди чётко понимали, что с появлением арбалетов войны станут лишь более кровопролитными. А уж сейчас заявлять, что какое-то супероружие сделает войну менее кровопролитной – это нужно быть наивным фантазёром, совершенно не знающим истории. Боевые роботы – просто ещё один инструмент. При чём, ещё долгое время это будет узкоспециализированный инструмент. И надеяться на то, что роботы заменят всех людей на поле боя глупо.
+1
Сообщить
№8
17.12.2018 15:08
Цитата, VK сообщ. №6
Раньше ? А сейчас не так? А через 50 лет?
Цитата, TopGear сообщ. №3
Но завтра (или вчера) могут появиться
0
Сообщить
№9
17.12.2018 15:19
Цитата, Геннадий Гущин сообщ. №7
заявлять, что какое-то супероружие сделает войну менее кровопролитной – это нужно быть наивным фантазёром, совершенно не знающим истории.
Всё-таки, кровопролитие это не цель, а способ войны. Если человек будет сильно проигрывать роботу, то человек  просто не сможет против роботов воевать без роботов. То есть, если не осталось в вашем распоряжении роботов, то проливать свою кровь будет уже бессмысленно.
0
Сообщить
№10
17.12.2018 15:36
Цитата, VK сообщ. №6
Раньше ? А сейчас не так? А через 50 лет?
Если серьезно, то сейчас реальная мировая война уже идёт - идёт в области создания технологий. Страна (или страны, альянсы, группы лиц и .т.п.), которая в силу неравномерности технологического развития сможет выскочить на голову вперёд в некой определяющей или в группе таких технологий обеспечит себе контроль за миром без войны. Хотя, отсутствие войны не означает отсутствие кровопролития (но это уже кровопролитие другого плана).
Могут ли роботы сыграть роль такой технологии (одной из таких технологий)? Не знаю. Но не исключаю.
0
Сообщить
№11
17.12.2018 15:47
Цитата, Геннадий Гущин сообщ. №7
Боевые роботы – просто ещё один инструмент. При чём, ещё долгое время это будет узкоспециализированный инструмент.

Мне кажется вы недооцениваете ситуацию. Я решительно не понимаю, почему в системах данного класса, я имею ввиду ИИ, за опасность принимаются именно боевые роботы, хотя по факту суть опасности в самом - независимом ИИ.

Если есть независимый ИИ, скажу очень высокопарно - представитель ещё одной разумной расы на единых ресурсах с нами же, ТО - как минимум с ней (этой разумной расой) придется искать контакт.

Что такое автономный ИИ - это самостоятельно мыслящий механизм, сущность. Тут вот Корректор выше сказал

Цитата, Корректор сообщ. №1
Автор хотя бы по интересовался на каких принципах ИИ создается. Так что не нужно врать, своих будет косить с завидной регулярностью.

может автор и не знает, но вот лично я поддержу его позицию. Если кто-то пытает иллюзии насчет того, что давая ИИ свободу мысли, можно ограничить его областями размышлений, то осмелюсь Вас уверить, что обход этих запретов через мысленные выводы - лишь вопрос времени.

А для того, чтобы уничтожить человечество - вовсе не надо быть боевым роботом, достаточно просто перекрыть канализацию, хаотично переключать светофоры на дорогах и ЖД полотнах и т.д.

Поэтому, повторюсь, я решительно не понимаю, зачем мы сами создаем себе естественного врага на этой планете, по сути не имея сейчас здесь таковых.
0
Сообщить
№12
17.12.2018 16:03
Цитата, Андрей Л. сообщ. №11
А для того, чтобы уничтожить человечество - вовсе не надо быть боевым роботом, достаточно просто перекрыть канализацию, хаотично переключать светофоры на дорогах и ЖД полотнах и т.д.
Абсолютно согласен. Причем, это может быть и не злой умысел, а просто чей-то косяк или сбой системы.
Цитата, Андрей Л. сообщ. №11
я решительно не понимаю, зачем мы сами создаем себе естественного врага на этой планете, по сути не имея сейчас здесь таковых.
Не зачем, а почему. Ответ прост - мы не достаточно разумны, чтобы владеть теми технологиями, которые нам уже доступны.  А это ещё цветочки. Эта проблема давно сформулирована - проблема техно-гуманитарного баланса. И эта проблема обостряется и может дойти до своей крайней точке уже при ныне живущих людях.
0
Сообщить
№13
17.12.2018 17:22
Цитата, Андрей Л. сообщ. №11
Мне кажется вы недооцениваете ситуацию. Я решительно не понимаю, почему в системах данного класса, я имею ввиду ИИ, за опасность принимаются именно боевые роботы, хотя по факту суть опасности в самом - независимом ИИ.
Скорее, Вы переоцениваете. Пока что ни каких ИИ нет. Ни зависимых, ни независимых. Когда они появятся – не известно. Почему-то, все считают, что ИИ обязательно обретут разум и захотят уничтожить человечество. При этом, сама теоретическая возможность обретения ИИ разума и собственной воли теоретически ни кем не доказана. А от случайного сбоя в работе не застрахован и обычный компьютер. Просто нужно соответствующие меры защиты от сбоев в боевых системах использовать. Стах перед боевыми роботами, способными принимать решение на поражение целей, на мой взгляд и вовсе иррационален. Чем они принципиально будут отличаться от уже существующих боевых систем? На тех же гранатных растяжках гораздо больше шансов погибнуть своим или мирным жителям, чем от автоматических роботизированных систем.

Цитата, Андрей Л. сообщ. №11
Что такое автономный ИИ - это самостоятельно мыслящий механизм, сущность. Тут вот Корректор выше сказал
Это уже, скорее, искусственный разум, сама теоретическая возможность существования которого не доказана. А искусственный интеллект – это лишь качественная имитация деятельности человеческого разума. Самому ему быть разумным не обязательно.

Цитата, Андрей Л. сообщ. №11
ак что не нужно врать, своих будет косить с завидной регулярностью.
Вряд ли чаще, чем свои криворукие стрелки и наводчики.

Цитата, Андрей Л. сообщ. №11
Если кто-то пытает иллюзии насчет того, что давая ИИ свободу мысли, можно ограничить его областями размышлений, то осмелюсь Вас уверить, что обход этих запретов через мысленные выводы - лишь вопрос времени.
Для начала не плохо бы доказать, что дать ИИ свободу мысли в принципе возможно. А чтобы обоснованно рассуждать об искусственным разуме, для начала современной науке нужно понять что из себя представляет и на каких принципах действует естественный человеческий разум.

Цитата, Андрей Л. сообщ. №11
А для того, чтобы уничтожить человечество - вовсе не надо быть боевым роботом, достаточно просто перекрыть канализацию, хаотично переключать светофоры на дорогах и ЖД полотнах и т.д.
Я даже больше скажу. Для этого и ни каких разумных ИИ, желающих уничтожить человечество, не нужно. Цивилизация и без них прекрасно может самоуничтожиться.

Цитата, Андрей Л. сообщ. №11
Поэтому, повторюсь, я решительно не понимаю, зачем мы сами создаем себе естественного врага на этой планете, по сути не имея сейчас здесь таковых.
Потому что не доказано, что ИИ обязательно станут врагом людям. Если так рассуждать, то вообще всю науку нужно немедленно запретить. Вдруг случайно чёрную дыру откроют при очередном эксперименте с ускорителями?
+1
Сообщить
№14
17.12.2018 17:30
Цитата, TopGear сообщ. №10
Если серьезно, то сейчас реальная мировая война уже идёт - идёт в области создания технологий.

я против дискуссий в форме софизмов и словоблудия. Если у нас разные понятия о войне, то мы не договоримся.

Война́ — конфликт между политическими образованиями — государствами, племенами, политическими группировками и так далее, — происходящий на почве различных претензий, в форме вооружённого противоборства, военных (боевых) действий между их вооружёнными силами.

Цитата, TopGear сообщ. №10
Хотя, отсутствие войны не означает отсутствие кровопролития (но это уже кровопролитие другого плана).

обоснуйте. Я не согласен. Если конечно вы не про менструацию и бытовые, производственные травмы.

Цитата, TopGear сообщ. №10
обеспечит себе контроль за миром без войны.

Ещё раз повторяю - конкретный пример в студию! Пусть футуристический образ, но вы его оформите вербально и без мистицизма. Сугубо материалистически, пожалуйста.
0
Сообщить
№15
17.12.2018 18:26
VK, в истории не мало примеров, когда уже после формального завершения войны (армия одной из сторон  разгромлена) проливалось не меньше, а может и больше крови - в ходе установления "нового порядка".
Что касается фактов контроля за миром без войны (то бишь не "в форме вооружённого противоборства, военных (боевых) действий между их вооружёнными силами"), то  таких примеров в последнее время очень много. Те же "санкции" и угрозы санкций в широком смысле этого слова (в том числе угрозы отключить ту или иную технологию на некой территории) и т.д. и т.п. Постепенно создаются такие мощные глобальные зависимости, что отключение от доступа к пользованию ими может быть фатальным.  Например, в сх - семена, пестициды. В медицине - лекарства. В сфере IT. Это всё, в том числе, и небезуспешные мероприятия по обретению контроля. И ещё один очень эффективный приём - покупка элит. Ему вообще не одна тысяча лет.  Но к старым приёмам сейчас добавляются новые - ввиду известного развития известных технологий. И количество может перейти в качество - война в форме боевых действий может стать менее эффективна.
P.S. Развал СССР - великолепный пример того, как можно победить врага не входя в фазу горячей войны с ним.
0
Сообщить
№16
17.12.2018 18:38
Цитата, VK сообщ. №14
я против дискуссий в форме софизмов и словоблудия.
И я - против. Пожалуй, что я даже против дискуссий, как таковых. В них нет уже никакого смысла. Кому надо - тот и так всё знает. Кто должен - тот и решит всё.
0
Сообщить
№17
17.12.2018 19:17
VK, вот, например, пишут о примере ещё одной простой зависимости. Долларовые счета в российских банках - http://www.yaplakal.com/forum3/topic1770458.html
И прочая собственность "наша" за границей - тоже зависимость.  Зависимости - это инструменты контроля. Если их достаточно, то может и воевать с нами не потребуется.
P.S. Слышал как-то, что когда началась первая мировая, царь потребовал, чтобы дворяне избавились от собственности за границей (в результате чего многие из них, когда бежали после революции, оказались практически без средств к существованию).
0
Сообщить
№18
17.12.2018 21:40
Цитата, Геннадий Гущин сообщ. №13
Пока что ни каких ИИ нет. Ни зависимых, ни независимых.

Зависимых в мире уже просто море - чат-боты - зависимые ИИ, системы распознавания и идентификации - зависимые ИИ. Обе указанные системы способны к самообучению по заданному алгоритму. Зависимость проявляется в том, что самообразование может идти только по заданному алгоритму - критериям обучения.

Я знаю, что разрабатываются системы поиска зависимостей и генерации алгоритмов совершенствования по этим зависимостям. Замечу, что система, способная к самостоятельному выявлению любых зависимостей и способная обучаться этому по мере выявления новых зависимостей, а также умеющая генерировать алгоритмы действия по выявленным зависимостям - это есть поведение и накопление опыта человеком. В этой цепочке нет творческого начала, интуиции и озарения, однако известно, что среди разных человеческих наций на планете Земля, данным набором способностей обладают далеко не все нации, а среди наций, обладающий этим набором, очень далеко не все человеческие представители наций поднялись до уровня применения своих способностей, заложенных природой.

Я веду к тому, что такой ИИ не будет отличаться от большинства людей на планете - на начальной стадии своего развития, читай эволюции.

Цитата, Геннадий Гущин сообщ. №13
При этом, сама теоретическая возможность обретения ИИ разума и собственной воли теоретически ни кем не доказана.

ИИ - не есть разум в том виде в каком человек не понимает, как работает его разум. Однако, уже доказано, что если ИИ задать вектор развития, то:
- он будет в нём стремительно развиваться, значительно быстрее, чем человек;
- он однозначно выходит за рамки вектора развития по мере выявления новых логических цепочек.

Я даже больше скажу, на планете уже есть люди, очень серьезные и очень грамотные в области ИИ, типа Сторонского (Revolut), которые больше доверяют автоматизированным прогнозным системам, чем профессионалам в той области, в которой происходит замещение человека на ИИ.

Цитата, Геннадий Гущин сообщ. №13
Для начала не плохо бы доказать, что дать ИИ свободу мысли в принципе возможно.

Хм... Как бы тут лучше выразиться... Господин Маск в одном интервью заявил, что на 2017-й год он обладает самым мощным суперкомпьютером в мире, и что на нём идут эксперименты в том числе с ИИ.
А в другом интервью он сказал, что человечеству нужно бояться именно ИИ.

Так вот я полагаю, что
1. Маск ошибается, в том, что он обладает самым мощным суперкомпьютером в мире. Я уверен, куда более мощные суперкомпьютеры стоят у военных в закрытых лабораториях.
2. военные уже прошли стадию, которая есть в гражданке - значит уровень Go, распознавания, генерации речи, сочинения музыки, имитацию работы мозжечка они уже давно прошли.

Из этого всего, для себя я делаю вывод: если Маск, далеко не глупый человек, испугался даже тех результатов, которых его подчиненные достигли на более слабых ресурсах, чем у военных, то военные должны бороться за создание полноценного ИИ первыми, чтобы не проиграть войну без единого выстрела.

И в реальности, по сути, я именно это и наблюдаю. Причем, не только в железе и технологиях, но и в запущенном процессе почти свободного биохакинга. Догадываюсь, что они идут параллельными тропами
- ИИ на искусственных компонентах
- симбиоз естественного интеллекта с компьютерными системами ИИ класса разного уровня развития.

Цитата, Геннадий Гущин сообщ. №13
Потому что не доказано, что ИИ обязательно станут врагом людям.

А это не есть обязательное условие. ИИ может просто приспосабливаясь к среде и изучая её не замечать людей или сопротивляться ограничению их развития. Т.е. - им не надо быть врагами, чтобы скажем перехватить управление над всеми источниками электропитания, поскольку это есть основа их жизнедеятельности, как для нас кислород и пища.

И таких примеров адаптации их в среде, и адаптации ими среды под себя может быть очень много - и не факт, что то, что полезно им не вредно нам.

Я же не зря верху написал

Цитата, Андрей Л. сообщ. №11
Если есть независимый ИИ, скажу очень высокопарно - представитель ещё одной разумной расы на единых ресурсах с нами же
0
Сообщить
№19
18.12.2018 07:00
Цитата, TopGear сообщ. №17
VK, вот, например, пишут о примере ещё одной простой зависимости. Долларовые счета в российских банках

причем тут всё это?? Вы вообще помните о чём речь идёт или нет? О роботах! И мой тезис был в том, что действия роботов не будут зависеть от неких новых принципов ИИ, которые откуда-то известны Корректору (наверное оттуда же, откуда и вам), а эти самые принципы будут вырабатываться в зависимости от военных задач, изменение которых пока не предвидится.

Обсуждается поведение роботов!!!

Вы понаписали кучу всего, но вообще не в тему. Вместо этого вы играете словом война натягивая его как сову на глобус на всё, что вам придумается. Это пустой трёп. Не интересно.
0
Сообщить
№20
18.12.2018 09:55
Цитата, Геннадий Гущин сообщ. №13
Это уже, скорее, искусственный разум, сама теоретическая возможность существования которого не доказана. А искусственный интеллект – это лишь качественная имитация деятельности человеческого разума. Самому ему быть разумным не обязательно.
Так вот и пытался разобраться с этим вопросом. Понять что собой представляет разум как метод. И даже понял как именно создать "сильный ИИ" практически. Но это понимание ставит и ряд новых вопросов.
Цитата, Геннадий Гущин сообщ. №13
Вряд ли чаще, чем свои криворукие стрелки и наводчики.
Обязательно чаще. :)))) Разум это "метод" и отражение условий среды, и потому если среда - война, то и отражение будет соответствующее. :))))
Но что самое смешное, понимание войны будет чертовки сильно отличаться. :))))
Цитата, Геннадий Гущин сообщ. №13
Я даже больше скажу. Для этого и ни каких разумных ИИ, желающих уничтожить человечество, не нужно. Цивилизация и без них прекрасно может самоуничтожиться.
Каковы условия нашего существования, какова экономика, таков и наш разум. Если мы стремимся "конкурировать" поубивать друг друга, то и все наши творения будут этим заниматься. :))))
И не нужно жаловаться что "гуманитарный базис" низкий или культура плохая. :)))
Цитата, TopGear сообщ. №15
Но к старым приёмам сейчас добавляются новые - ввиду известного развития известных технологий. И количество может перейти в качество - война в форме боевых действий может стать менее эффективна.
:)))) Вы очевидно не понимаете суть войны. А суть всегда - экономика и демография. И все ваши "новые" методы, это продолжение старых. Суть в том, что при крайних показателях экономики и демографии война ведется только на уничтожение. Не на завоевание или установление контроля, а прямо буквально уничтожение конкурирующей цивилизации для снижения собственного демографического давления, уничтожение чужой промышленности для роста собственной экономики. Так что не питайте иллюзий, все средства пойдут в ход. И в первую очередь средства против гражданского населения и промышленности. И если сегодня в ход идут "санкции", то только потому что данные метод уничтожения населения противника и его промышленности пока более эффективный чем массированный ядерный удар.
Это тотальная война, детка! И рассуждать о "малой крови" в современной войне, это как-то наивно. Наверное так оно и есть, какая кровь в момент термоядерного взрыва? :))))
Цитата, TopGear сообщ. №15
P.S. Развал СССР - великолепный пример того, как можно победить врага не входя в фазу горячей войны с ним.
Империи не падают под ударами внешнего врага, их всегда разрушают внутренние противоречия. Вот и сейчас противоречия растут.
Так что не нужно тиражировать мифы "великого заговора", все сами сделали. :)))
Цитата, q
что среди разных человеческих наций на планете Земля, данным набором способностей обладают далеко не все нации, а среди наций, обладающий этим набором, очень далеко не все человеческие представители наций поднялись до уровня применения своих способностей, заложенных природой.
Потому что человеческий разум имеет коллективную и неразрывно связан с цивилизационной моделью. Разум, это сама история общества. :)))
Цитата, Андрей Л. сообщ. №18
Я веду к тому, что такой ИИ не будет отличаться от большинства людей на планете - на начальной стадии своего развития, читай эволюции.
Не отличаться, а совершенно иная "плоскость" отражения реальной действительности. Так что вы и правы и не правы одновременно.
Цитата, Андрей Л. сообщ. №18
- он будет в нём стремительно развиваться, значительно быстрее, чем человек;
- он однозначно выходит за рамки вектора развития по мере выявления новых логических цепочек.
Кем доказано? Не все так однозначно как вы думаете.
Цитата, Андрей Л. сообщ. №18
А в другом интервью он сказал, что человечеству нужно бояться именно ИИ.
Бояться нужно наркоманов наделенных властью. Особенно с большими финансовыми возможностями. :)))
Цитата, VK сообщ. №19
И мой тезис был в том, что действия роботов не будут зависеть от неких новых принципов ИИ, которые откуда-то известны Корректору (наверное оттуда же, откуда и вам), а эти самые принципы будут вырабатываться в зависимости от военных задач, изменение которых пока не предвидится.
Прочитайте вой эту статью: https://aftershock.news/?q=node/547744
Это старый спор о природе человеческого разума. Вот на основе этой модели и делаю выводы.
0
Сообщить
№21
18.12.2018 10:49
Конечно, развал СССР это результат внутренних внутриэлитных причин, а не внешнего прямого воздействия. Но внешнее воздействие, обеспечивающее этот развал было и проводилось грамотно и достаточно длительное время. И развал СССР это и его результат тоже. Не исключаю, как это ни пародоксально, что если бы было наличие прямого военного конфликта со странами НАТО, то это наоборот способствовало бы сохранению СССР как государства. Поскольку в этих условиях, многие внутриэлитные процессы могли бы идти по другому.
0
Сообщить
№22
18.12.2018 10:51
Цитата, Корректор сообщ. №20
:)))) Вы очевидно не понимаете суть войны.
Корректор, я уже понял из предыдущего диалога с вами, что тут только вы что-то понимаете.
0
Сообщить
№23
18.12.2018 11:15
Цитата, VK сообщ. №19
Обсуждается поведение роботов!!!
А что, они плохо себя ведут?)
Насколько я понял,  по части применения роботов в ходе боевых действий есть две проблемы.
1. Этическая - можно ли доверять роботу право принимать решение об убийстве человека (противника)?
2. Практическая - будет ли  робот правильно распознавать врага и отличать его от своих?
Вторая проблема будет решаться практически и скорее всего достаточно эффективно.
Первая проблема носит скорее риторический характер - есть люди, которые "зарабатывают" именно на говорильне, на том, что они "поднимают проблемы".  Возможно,  в этой говорильне и есть какой-то смысл. Но говорильня ровным счетом ничего не решает.  Поговорят и заткнутся, если им прикажут. Морали на уровне принятия решений не существует от слова совсем.
Есть ещё и третья проблема
3. Цена роботов.
Не исключаю, что  на данном этапе могут быть очень эффективны самые примитивные "одноразовые" роботы. Проблему безопасности (чтобы свой робот не убил своих)  можно решать и весьма примитивными методами, в том числе - особенностями тактики их применения.
А риски связанные с ИИ - это проблема гораздо шире темы боевых роботов и скорее всего  может быть связана не столько с ними, сколько с некими системами управления вообще (хотя, в частности - и с системами  управления и/или постановки боевых задач для роботов - но это только узкая сфера рисков ИИ).
0
Сообщить
№24
19.12.2018 16:43
Цитата, Андрей Л. сообщ. №18
Зависимых в мире уже просто море - чат-боты - зависимые ИИ, системы распознавания и идентификации - зависимые ИИ.
Это ещё не ИИ, а лишь программы и алгоритмы с использованием отдельных элементов ИИ. Если так обобщать, то любая программа со способностью к самообучению будет считаться ИИ. Проблема в том, что не существует чёткого определения ИИ. Поэтому каждый интерпретирует это понятие как захочет. Если программа обладает лишь одной-двумя функциями ИИ, например самообучение или распознавание образов, то считать её полноценным ИИ, даже зависимым, на мой взгляд, не корректно. Нужен некий комплекс функций и возможностей, позволяющий качественно имитировать интеллектуальную деятельность человеческого мозга или создавать собственные интеллектуальные алгоритмы без участия человека.

Цитата, Андрей Л. сообщ. №18
Зависимость проявляется в том, что самообразование может идти только по заданному алгоритму - критериям обучения.
Даже если самообучение будет идти в неограниченном количестве направлений без чёткого алгоритма и рамок, то сможет чат-бот развиться в ИИ? Скорее всего, нет.

Цитата, Андрей Л. сообщ. №18
это есть поведение и накопление опыта человеком.
Только в общем приближении. На самом деле там присутствует множество других процессов и закономерностей, не все из которых выявлены и изучены современной наукой.

Цитата, Андрей Л. сообщ. №18
ИИ - не есть разум в том виде в каком человек не понимает, как работает его разум.
В современном представлении ИИ – либо глубокая имитация деятельности человеческого разума, либо некий набор саморазвивающихся и самопрограммирующихся интеллектуальных процессов, которые могут быть отличны от работы человеческого разума, но должны обладать определённым набором свойств, точный перечень которых ещё не составлен. На данном этапе ни то ни другое не достижимо из-за чрезвычайной сложности подобных систем. Про обретение ИИ собственных разума, сознания воли и целей – это фантазии, лишь условно являющиеся научными. Может быть, такое и возможно, но ни каких доказательств пока нет. С таким же успехом можно строить теории о возможности сгенерирвать чёрную дыру с помощью Большого адронного коллайдера.

Цитата, Андрей Л. сообщ. №18
Я веду к тому, что такой ИИ не будет отличаться от большинства людей на планете - на начальной стадии своего развития, читай эволюции.
Будет. Потому что это будет лишь имитация разумной деятельности, пусть и не отличимая от разумной деятельности большинством людей, не являющихся специалистами по ИИ.

Цитата, Андрей Л. сообщ. №18
1. Маск ошибается, в том, что он обладает самым мощным суперкомпьютером в мире.
Всё он прекрасно знает. Просто преувеличивает в рекламных целях. И про мощность, и про глубину экспериментов с ИИ, и про их опасность.

Цитата, Андрей Л. сообщ. №18
2. военные уже прошли стадию, которая есть в гражданке - значит уровень Go, распознавания, генерации речи, сочинения музыки, имитацию работы мозжечка они уже давно прошли.
Даже если это и так, что далеко не факт, поскольку в последнее время военные всё чаще заимствуют гражданскую электронику, а не наоборот, то это ещё не означает, что они имеют рабочие модели настоящих ИИ.

Цитата, Андрей Л. сообщ. №18
Из этого всего, для себя я делаю вывод: если Маск, далеко не глупый человек, испугался даже тех результатов, которых его подчиненные достигли на более слабых ресурсах,
А были ли эти результаты и испугался ли их Маск? Вы делаете далеко идущие выводы на основе домыслов и предположений.

А ещё мистер Маск сказал, что человечеству нужно покупать его огнемёты для вечеринок, с помощью которых можно отбиваться от зомби. Маск что-то знает про угрозу зомби-апокалипсиса? Или он просто готовит к продаже партию ручных электромагнитных генераторов, чтобы отбиваться от восстания машин? :)

Цитата, Андрей Л. сообщ. №18
чем у военных, то военные должны бороться за создание полноценного ИИ первыми, чтобы не проиграть войну без единого выстрела.
А военные боятся или нет? И если не боятся, то от того, что знают о безопасности ИИ, или о невозможности их создать на текущем уровне развития науки и техники? А если боятся, то чего? Того, что ИИ может выйти из под контроля, или того, что кто-то может создать ИИ раньше их и получить преимушество?

Цитата, Андрей Л. сообщ. №18
- ИИ на искусственных компонентах
- симбиоз естественного интеллекта с компьютерными системами ИИ класса разного уровня развития.
Опять же, ни в том ни в другом направлении радикальных прорывов пока не наблюдается. Если Вы конечно не сторонник конспирологических теорий о секретных лабораториях, экспериментирующих над секретными ИИ.

Цитата, Андрей Л. сообщ. №18
Т.е. - им не надо быть врагами, чтобы скажем перехватить управление над всеми источниками электропитания, поскольку это есть основа их жизнедеятельности, как для нас кислород и пища.
А перехват контроля над источниками электропитания или другими вычислительными системами не будет воспринят людьми как агрессия? И полноценный ИИ не сможет просчитать подобную реакцию людей и не предпринимать подобных действий? Если ИИ сможет действительно выйти на некий уровень устойчивого развития, превосходящий человеческий, он не сможет найти таких решений для дальнейшего развития и расширения, которые не будут затрагивать деятельность людей или и вовсе не будут для них заметными?
В любом случае, такой ИИ ещё нужно создать, а это очень сложная задача.

Цитата, Андрей Л. сообщ. №18
Если есть независимый ИИ, скажу очень высокопарно - представитель ещё одной разумной расы на единых ресурсах с нами же
Могу лишь повторить, что ни кем не доказана сама принципиальная возможность обретения ИИ разума или некого его подобия, позволяющего формировать собственные цели и желания. О случайных сбоях и ошибках в работе ИИ речь не идёт.
0
Сообщить
№25
19.12.2018 18:23
Цитата, Корректор сообщ. №20
Так вот и пытался разобраться с этим вопросом. Понять что собой представляет разум как метод.
И как? Получилось? Не поделитесь научным открытием, что из себя представляет разум, как метод?

Цитата, Корректор сообщ. №20
Обязательно чаще. :)))) Разум это "метод" и отражение условий среды, и потому если среда - война, то и отражение будет соответствующее. :))))
Почему чаще? Человеческий разум существует в условиях войны и допускает некое количество ошибок с "дружественным огнём" и поражением некомбатантов. В чём принципиальное отличие гипотетического ИИ из-за которого он будет допускать подобные ошибки значительно чаще?

Цитата, Корректор сообщ. №20
Но что самое смешное, понимание войны будет чертовки сильно отличаться. :))))
И в чём будет заключаться это отличие? В том, что решение на поражение целей будут принимать не только люди, но и автоматические системы? Так они уже давно применяются, при чём без всяких ИИ.

Цитата, Корректор сообщ. №20
Каковы условия нашего существования, какова экономика, таков и наш разум.
Можно сказать и обратное. Текущие условия существования, экономическая и социальная среда, являются следствием формы нашего разума.

Цитата, Корректор сообщ. №20
Если мы стремимся "конкурировать" поубивать друг друга, то и все наши творения будут этим заниматься. :))))
Следуя Вашей логике, если мы создадим искины, то они должны поубивать друг друга в первую очередь, а не людей. :)
0
Сообщить
№26
19.12.2018 18:37
Цитата, TopGear сообщ. №23
1. Этическая - можно ли доверять роботу право принимать решение об убийстве человека (противника)?
Если люди уже доверяют вопросы принятия решений о поражении целей в минных комплексах с системами распознавания целей, самонаводящихся ракетах, системах ПВО и ПРО, то почему не должны доверять такую задачу автоматическим системам управления автономными дронами?

Цитата, TopGear сообщ. №23
2. Практическая - будет ли  робот правильно распознавать врага и отличать его от своих?
Здесь, вероятно, правильнее поставить вопрос так: "Будет ли робот распознавать цели лучше или хуже, чем человек в равных условиях с одинаковым оборудованием?"

Цитата, TopGear сообщ. №23
3. Цена роботов.
Не исключаю, что  на данном этапе могут быть очень эффективны самые примитивные "одноразовые" роботы. Проблему безопасности (чтобы свой робот не убил своих)  можно решать и весьма примитивными методами, в том числе - особенностями тактики их применения.
Самый простой вариант – не применять автономные роботизированные комплексы в непосредственной близости от своих войск. А так, можно использовать различные системы распознавания "свой-чужой". При этом случаи "дружественного огня" будут неизбежны хоть при использовании автономных дронов, хоть дистанционно управляемых дронов, хоть пилотируемой техники. Вопрос в том, когда таких случаев будет больше.
0
Сообщить
№27
19.12.2018 19:16
Цитата, Геннадий Гущин сообщ. №25
И как? Получилось? Не поделитесь научным открытием, что из себя представляет разум, как метод?
На открытие не претендую, но некоторые элементарные вещи понял. :))) https://aftershock.news/?q=node/547744
Цитата, Геннадий Гущин сообщ. №25
Почему чаще? Человеческий разум существует в условиях войны и допускает некое количество ошибок с "дружественным огнём" и поражением некомбатантов. В чём принципиальное отличие гипотетического ИИ из-за которого он будет допускать подобные ошибки значительно чаще?
  В том что для него не существует общей "человеческой картины", и потому нет различий между "воюющими сторонами".
Говоря проще, будет масса факторов когда машина способная к самообучению будет "паниковать", и полить по своим. Программа самосохранения будет однозначно императивна, а определение угроз на усмотрение машины. :)))
Насколько понял, уже сейчас есть такая проблема. Нейронные сети палят по своим в реальных боевых условиях.
Цитата, Геннадий Гущин сообщ. №25
И в чём будет заключаться это отличие? В том, что решение на поражение целей будут принимать не только люди, но и автоматические системы?
Статью прочитайте. Если говорим о "сильном ИИ", в смысле разум, то сделать совпадающую "система понятий" задача чертовки сложная, почти невозможная. И что самое важное, лишенная практического смысла.
Вот и получается что представлении сильного ИИ о войне не будет иметь ничего человеческого. Если конечно мы говорим об разуме. А если говорим об интеллекте, то само понятие "представление" не уместно. Например программа AlphaGo тоже имеет представление о Го и шахматах, но назвать это представление "человеческим", это как назвать алгоритм Монте-Карло способом человеческого мышления. :)))
Цитата, Геннадий Гущин сообщ. №25
Можно сказать и обратное. Текущие условия существования, экономическая и социальная среда, являются следствием формы нашего разума.
Нет, обратное никак невозможно. Статью прочитайте.
Цитата, Геннадий Гущин сообщ. №25
Следуя Вашей логике, если мы создадим искины, то они должны поубивать друг друга в первую очередь, а не людей. :)
В "искины" не верю. Просто потому что бессмертное существо имеет мало шансов обладать разумом. :))))
0
Сообщить
№28
20.12.2018 18:52
Цитата, Корректор сообщ. №27
На открытие не претендую, но некоторые элементарные вещи понял. :)))
К сожалению, все эти философские сентенции ни как не помогут в создании полноценных ИИ.

Цитата, Корректор сообщ. №27
В том что для него не существует общей "человеческой картины", и потому нет различий между "воюющими сторонами".
Что мешает задать параметры этих различий? Какие коды распознавания используют, какую форму носят, на каком языке говорят. Всё это поддаётся компьютерной обработке. Или Вы говорите о том, что ИИ может перейти на сторону противника, потому что ему всё равно, на чьей стороне воевать?

Цитата, Корректор сообщ. №27
Говоря проще, будет масса факторов когда машина способная к самообучению будет "паниковать", и полить по своим.
Люди тоже так делают. С чего Вы решили, что автоматические дроны или ИИ будут допускать подобные ошибки чаще? На начальном этапе, когда такие системы будут не надёжны, они прост будут малочисленны по сравнению с людьми, и общее число случаев дружественного огня будет не велико. А по мере отработки автоматических систем и повышения их надёжности их количество будет увеличиваться.

Цитата, Корректор сообщ. №27
Статью прочитайте. Если говорим о "сильном ИИ", в смысле разум, то сделать совпадающую "система понятий" задача чертовки сложная, почти невозможная.
Читал статью. Про ИИ там нет ни слова. Как я говорил ранее, сама возможность создания разумного ИИ, способного к самоосознанию и формированию собственной воли пока ни кем не доказана. Если такой ИИ когда нибудь смогут создать, то смогут и найти способ задать ему нужную систему понятий. Хоть человеческую, хоть нет. Пока же перед разработчиками ИИ стоит задача хотя бы создать качественную имитацию работы сознания, чтобы подобный ИИ мог решать хотя бы некоторые сложные задачи не хуже или лучше человека.

Цитата, Корректор сообщ. №27
Вот и получается что представлении сильного ИИ о войне не будет иметь ничего человеческого.
Вот создадут сильный ИИ, тогда и узнаем, какие он будет иметь представления. А пока – это безосновательные теории из разряда гадания на кофейной гуще. Я же говорил о создании систем, способных принимать решения о поражении целей. Для этого даже полноценный слабый ИИ не обязателен. Достаточно лишь отдельных его элементов.

Цитата, Корректор сообщ. №27
Например программа AlphaGo тоже имеет представление о Го и шахматах, но назвать это представление "человеческим", это как назвать алгоритм Монте-Карло способом человеческого мышления. :)))
Как раз AlphaGo ни о чём кроме го представления не имеет. Она даже не знает, что партии могут заканчиваться в ничью. Это программу AlphaZero под шахматы и сёги доработали. И ни кто, кроме самых фанатичных гиков, программы AlphaGo и AlphaZero полноценными ИИ не называл. Речь шла лишь о использовании созданных для них алгоритмов самообучения при создании будущих ИИ.

Цитата, Корректор сообщ. №27
Нет, обратное никак невозможно. Статью прочитайте.
Прочитал. Из какого именно тезиса данной статьи следует невозможность предложенной мной причинно-следственной интерпретации?

Цитата, Корректор сообщ. №27
В "искины" не верю. Просто потому что бессмертное существо имеет мало шансов обладать разумом. :))))
Вы сейчас этим заявлением плюнули в душу всем теологам мира. :)
Но Вы признаёте, что подобные шансы всё же отличны от нуля, а значит существуют? :)
0
Сообщить
№29
22.12.2018 17:37
Цитата, Геннадий Гущин сообщ. №28
К сожалению, все эти философские сентенции ни как не помогут в создании полноценных ИИ.
  :)))) Скорее геометрия. А потом как иначе изложить доступным языком такие категории?
Все дело в  том, что если мы говорим о разуме, мы говорим и продукте работы нейронных сетей. Ведь каждый человеческий мозг является не более чем конгломератом нейронных сетей. А результатом работы каждой нейронной сети является набор векторов гиперплоскости решения. Почему сегодня используются тензорные процессоры. Просто мозг не мыслит цифрами как и любая нейронная сеть. Он мыслит весами. Как и разум это площади и их сравнение.
И разница между интеллектом и разумом, в том что у интеллекта только одна гиперплоскость решения, а у разума две. Гиперплоскость решения и гиперплоскость экстриума. Помните из истории математики задачу на поиск экстриума? Все именно так и переводится в чистую математику. Но дьявол кроется в деталях. Все это работает только в если кибернетическая петля развернута во времени, и геометрия пространства 3+. Что неизменно приводит нас к давно известному представлению о вселенной как гиперсфере и математике гиперсферы.
На самом деле, это меняет все.
Цитата, Геннадий Гущин сообщ. №28
Что мешает задать параметры этих различий?
Недавно читал жалобы разработчика нейронной сети для сбора помидоров. Простоя и понятная задача сбора СПЕЛЫХ помидоров. Но когда мы вспоминаем что в действительности, мы говорим о сечении гиперплоскости вероятности "помидор" , задача играет совсем другими красками. И задача вдруг принимает просто эпические масштабы.
А вы говорите о задаче в динамических условиях боя. Почувствуйте разницу. :))))
Цитата, Геннадий Гущин сообщ. №28
Люди тоже так делают. С чего Вы решили, что автоматические дроны или ИИ будут допускать подобные ошибки чаще?
Подходите к задаче практически с позиции "геометрии", и вы сами поймете, что не все так просто и радужно.
Цитата, Геннадий Гущин сообщ. №28
Читал статью. Про ИИ там нет ни слова.
Разум это физический процесс. Но существующий в пограничных условиях. Нет разницы искусственный он или нет. Это именно к вопросу о представлении о вселенной.
Нет разницы между имитацией разума и самим разумом, это физический процесс. Но воспринять его можно только прибегнув к "геометрии".
Цитата, Геннадий Гущин сообщ. №28
Вот создадут сильный ИИ, тогда и узнаем, какие он будет иметь представления.
Мы ничего не узнаем. В этом и весь юмор ситуации. Просто еще одно "явление природы".
Цитата, Геннадий Гущин сообщ. №28
Как раз AlphaGo ни о чём кроме го представления не имеет. Она даже не знает, что партии могут заканчиваться в ничью. Это программу AlphaZero под шахматы и сёги доработали.
Метод одинаковый Монте- Карло.
Цитата, Геннадий Гущин сообщ. №28
Речь шла лишь о использовании созданных для них алгоритмов самообучения при создании будущих ИИ.
Прекрасно понимаю как они работают и понимаю ПОЧЕМУ они работаю. Но называть это шагом в направлении ИИ можно только с большой натяжкой. Есть примеры и намного сильнее. Когда гиперплоскость решения намного больше.
Цитата, Геннадий Гущин сообщ. №28
Прочитал. Из какого именно тезиса данной статьи следует невозможность предложенной мной причинно-следственной интерпретации?
Случайная выборка определяет наследование, а не наследование определяет случайную выборку.
Цитата, Геннадий Гущин сообщ. №28
Вы сейчас этим заявлением плюнули в душу всем теологам мира. :)
Не в первый раз. На мой взгляд, теология просто неверное понимание природы разума. Сама концепция "бог просто примитивное представление о природе разума.
0
Сообщить
№30
22.12.2018 18:49
Цитата, Корректор сообщ. №29
Помните из истории математики задачу на поиск экстриума?
Не помню. Сначала-то я решил, что это у вас опечатка и имелся ввиду "экстремум", но потом вижу - дважды употреблено. Видать, не знаю я такого термина математического. Что странно - и гугл не знает.
Цитата, Корректор сообщ. №29
каждый человеческий мозг является не более чем конгломератом нейронных сетей.
Это всего лишь гипотеза. Для такого утверждения нет достаточных оснований.
Корректор, раз уж тут такая пьянка у вас и что-то обсуждаете, то логично для начала дать корректное общепризнанное определение и интеллекта, и разума, и ИИ, и нейронных сетей, а потом уже жонглировать этими понятиями в гиперплоскости дискуссии.
0
Сообщить
№31
22.12.2018 21:26
Цитата, Корректор сообщ. №29
  :)))) Скорее геометрия. А потом как иначе изложить доступным языком такие категории?
А какие категории? Тема ИИ в Вашей статье не затрагивалась.

Цитата, Корректор сообщ. №29
Все дело в  том, что если мы говорим о разуме, мы говорим и продукте работы нейронных сетей.
Человеческий разум – это гораздо более сложное понятие, чем продукт работы нейронных сетей. С таким же успехом можно заявлять, что компьютерные операционные системы – это продукт работы процессора.

Цитата, Корректор сообщ. №29
Ведь каждый человеческий мозг является не более чем конгломератом нейронных сетей.
Вы в этом уверены? Кто-то уже изучил все функции и особенности работы человеческого мозга? Или доказал, что разум человека связан только с работой нейронов его мозга и ни с чем больше?

Цитата, Корректор сообщ. №29
На самом деле, это меняет все.
Что именно меняет? Вот если создадут на таких принципах стабильный действующий ИИ, тогда поменяет. А пока это лишь абстрактное теоретизирование.

Цитата, Корректор сообщ. №29
А вы говорите о задаче в динамических условиях боя. Почувствуйте разницу. :))))
Задача создания робота для сбора помидоров действительно очень сложная, при этом, на сколько я помню, его ни кто не планировал наделять полноценным ИИ. Речь шла о создании алгоритма работы такого устройства с распознаванием оптических образов и самообучением. С точки зрения разработки ИИ такая программа принципиально не отличается от самообучающейся программы по распознаванию лиц.
Вот только Вы не задумывались, как сейчас современная техника решает вопрос распознавания целей по категории "свой-чужой" вообще без ИИ? Люди уже давно не выходят из командных пунктов и не смотрят в бинокли, свой самолёт летит или вражеский, нужно его сбивать или нет. Решения операторы ЗРК в большинстве случаев принимают на основе данных от автоматических систем распознавания целей. Более того, в большинстве современных ЗРК есть режим работы, когда решение о поражении целей система принимает автоматически, а оператор лишь подтверждает его или не подтверждает. И эти задачи вполне решаются без всяких ИИ и самообучающихся нейронных сетей.

Цитата, Корректор сообщ. №29
Подходите к задаче практически с позиции "геометрии", и вы сами поймете, что не все так просто и радужно.
И человеческий разум и гипотетический алгоритм самообучающейся нейронной сети, действующей, как Вы выразились, в размерности 3+, будет принимать решение на поражение цели на основе данных от различных приборов и систем. Чем совершеннее эти приборы и системы, тем меньше будет ошибок в принятии решений. При ошибочной входящей информации ошибки будут допускать и человек, и ИИ, и не самообучающийся автоматический алгоритм. Так почему Вы считаете, что при одинаково ошибочной входящей информации человек-оператор будет ошибаться значительно реже? Кстати, я не говорил, что это простая задача. Наоборот, она крайне сложная и для человека и для автоматических средств принятия решений.

Цитата, Корректор сообщ. №29
Разум это физический процесс.
Простите, а это кем доказано? Есть теории, что не физический. И пока все они не опровергнуты, говорить, что разум – физический процесс преждевременно.

Цитата, Корректор сообщ. №29
Нет разницы искусственный он или нет.
Вообще-то, есть. Искусственный разум теоретически может быть двух типов: человеческого и не человеческого. А естественный разум науке известен только одного типа.

Цитата, Корректор сообщ. №29
Нет разницы между имитацией разума и самим разумом, это физический процесс.
Серьёзно? А между имитацией работы и самой работой разница есть? :)

Цитата, Корректор сообщ. №29
Мы ничего не узнаем. В этом и весь юмор ситуации. Просто еще одно "явление природы".
А проанализировать работу ИИ не судьба? Или к нему, по-Вашему, будут относиться как к некоему "чёрному ящику"? Работает, и не важно как именно он работает. Вот различные явления природы почему-то пытаются изучать и анализировать, пусть и не всегда, не во всём их удаётся понять.

Цитата, Корректор сообщ. №29
Метод одинаковый Монте- Карло.
Вот именно. Метод использовали одинаковый, а программу для шахмат пришлось делать новую, вместо того, чтобы AlphaGo играть в шахматы научить за счёт возможностей самообучения.

Цитата, Корректор сообщ. №29
Но называть это шагом в направлении ИИ можно только с большой натяжкой.
Я это тоже прекрасно понимаю. Но всякие компьютерные гики уже считают эти программы полноценными ИИ и чуть ли не ждут, когда они обретут разум. Так же и полноценный ИИ вряд ли корректно считать просто набором нейронных сетей, пусть и сложной конфигурации.

Цитата, Корректор сообщ. №29
Не в первый раз. На мой взгляд, теология просто неверное понимание природы разума. Сама концепция "бог просто примитивное представление о природе разума.
Давайте воздержимся от теологического диспута. :)
0
Сообщить
№32
23.12.2018 08:08
Когда в Боснии воевали отсталые народы, количество жертв было порядка ста тысяч и окончания войны не было видно. Когда вмешалась НАТО, количество жертв было порядка пары тысяч и боевые действия прекратились.
Дальнейшая компьютеризация вооружения позволит увеличить точность и уменьшить количество жертв. Машины будут уничтожать другие машины.
-1
Сообщить
№33
23.12.2018 09:22
Цитата, Геннадий Гущин сообщ. №31
А какие категории? Тема ИИ в Вашей статье не затрагивалась.
Статья о разуме вообще. О разуме как методе и процессе. А какого именно он происхождения значения не имеет. Сеть нейронов может быть биологического происхождения, может быть на тензорных процессорах, а может быть вообще механической. :)))
Цитата, Геннадий Гущин сообщ. №31
Человеческий разум – это гораздо более сложное понятие, чем продукт работы нейронных сетей.
Вот и объясняю что именно собой представляет. И только не нужно утверждать, что продукт работы нейронных сетей это "просто". Оно может и так, когда речь идет об отдельной нейронной сети, но совсем не так, когда речь идет о множестве взаимодействующих сетей и на протяжении продолжительного периода времени.
Цитата, Геннадий Гущин сообщ. №31
Вы в этом уверены? Кто-то уже изучил все функции и особенности работы человеческого мозга?
В данном случае уверен. Никакого "чудного механизма разума" в мозге не обнаружено. А вот тот факт что мозг состоит из нейронов и оно образуют сети, факт доказанный и прекрасно известный. Как и существует проект моделирования работы мозга.
Цитата, Геннадий Гущин сообщ. №31
Или доказал, что разум человека связан только с работой нейронов его мозга и ни с чем больше?
Так о чем и написал статью, вопрос не в одном мозге и в их взаимодействии.
Цитата, Геннадий Гущин сообщ. №31
Что именно меняет? Вот если создадут на таких принципах стабильный действующий ИИ, тогда поменяет. А пока это лишь абстрактное теоретизирование.
Это вполне проверяемая гипотеза. :)))) А меняется очень многое. Например в рамках данной гипотезы разум имеет коллективные основы.
Цитата, Геннадий Гущин сообщ. №31
Вот только Вы не задумывались, как сейчас современная техника решает вопрос распознавания целей по категории "свой-чужой" вообще без ИИ?
Система "свой-чужой" очевидно имеет преимущество при активных системах поиска цели, но имеет очевидные границы применения.
И для селекции целей в современных военных системах все чаще применяются именно нейронные сети.
Цитата, Геннадий Гущин сообщ. №31
Так почему Вы считаете, что при одинаково ошибочной входящей информации человек-оператор будет ошибаться значительно реже? Кстати, я не говорил, что это простая задача. Наоборот, она крайне сложная и для человека и для автоматических средств принятия решений.
Давайте определимся. Нейронная сеть будет не ошибаться вообще, а будет чаще ошибаться вполне определенным образом, в сторону огня по своим. Почему именно так, связанно с "задачей спелых помидоров". Просто у нее только одна плоскость принятия решения, и сечение этой плоскости будет неизменно смещаться в сторону "все враги".
Цитата, Геннадий Гущин сообщ. №31
И пока все они не опровергнуты, говорить, что разум – физический процесс преждевременно.
Из предложенной концепции разума именно так и получается.
Цитата, Геннадий Гущин сообщ. №31
Вообще-то, есть. Искусственный разум теоретически может быть двух типов: человеческого и не человеческого. А естественный разум науке известен только одного типа.
Может тогда сначала определимся что это такое разум? Свое представление на основе разумного поведения уже предложил.
Цитата, Геннадий Гущин сообщ. №31
А проанализировать работу ИИ не судьба? Или к нему, по-Вашему, будут относиться как к некоему "чёрному ящику"? Работает, и не важно как именно он работает.
Юмор в том, что современный нейронные сети таковым "черным ящиком" и являются. И тут ничего не изменишь, таковая их суть и основа - математическая статистика.
Цитата, Геннадий Гущин сообщ. №31
Вот именно. Метод использовали одинаковый, а программу для шахмат пришлось делать новую, вместо того, чтобы AlphaGo играть в шахматы научить за счёт возможностей самообучения.
Метод одинаковый. А это просто вопрос реализации метода.
Цитата, Геннадий Гущин сообщ. №31
Так же и полноценный ИИ вряд ли корректно считать просто набором нейронных сетей, пусть и сложной конфигурации.
Верно. Но нужно понимать, что интеллект это не сама нейронная сеть, а результат ее работы как гиперплоскость решения. И в том и дело, что разум это система гиперплоскостей решения и результат их взаимодействия.
Цитата, TopGear сообщ. №30
Корректор, раз уж тут такая пьянка у вас и что-то обсуждаете, то логично для начала дать корректное общепризнанное определение и интеллекта, и разума, и ИИ, и нейронных сетей,
Ну вот и прекрасно, можете попробовать дать практическое определение интеллекта и разума. Вдруг оно у вас есть. :))))
И желательно без философских абстракций четвертого порядка, а именно сугубо практические определения.
Цитата, Altantal сообщ. №32
Машины будут уничтожать другие машины.
О да, а работать будут только роботы. И все только для того чтобы человек мог ничего не делать, а только жрать и гадить. ))))
0
Сообщить
№34
23.12.2018 09:46
Цитата, Корректор сообщ. №33
работать будут только роботы. И все только для того чтобы человек мог ничего не делать, а только жрать и гадить
Я слышу в голосе сарказм. Но ведь по факту так и есть. Производительность труда растёт, процент занимающихся производительным трудом падает.
На данный момент бояться надо не самосознания ИИ, а намерения некоторых людей уменьшить количество тех, кто по их мнению только жрёт и гадит. Они-то как раз могут внести в уже существующие военные компьютеры алгоритмы массового уничтожения. И они для этой цели с удовольствием используют полноценный ИИ, когда он появится.
0
Сообщить
№35
23.12.2018 18:09
Цитата, Корректор сообщ. №33
Ну вот и прекрасно, можете попробовать дать практическое определение интеллекта и разума. Вдруг оно у вас есть. :))))
Дискуссию вы ведете - вам и давать определения базисных понятий ваших логических построений. А в случае, если вы не располагаете определениями этих понятий, то как вы их можете использовать в дискуссии?  Если некое понятие не имеет общепринятого определения (или оно вам не известно), то тем более нужно оговорить что именно вы имеете ввиду.  Иначе высказывания теряют смысл.
0
Сообщить
№36
24.12.2018 14:48
Цитата, TopGear сообщ. №35
Дискуссию вы ведете - вам и давать определения базисных понятий ваших логических построений.
Думая вам известно что нет определения понятия "разум" иначе как философского. Вот явление есть, а практического определения нет.
Вот потому и предложил практическое определение на основе разумного поведения в написанной статье. Как и дал разграничение между интеллектом и разумом. А то животные бывают тоже очень сообразительные, и даже могут соображать в контексте условий значительно быстрее человека. Мыши прекрасно бегают по лабиринту за куском сыра, но вот только выйти за его пределы никак не могут. Почему именно так, объясни в статье. Так же как и здесь уже написал, различие в двух гиперплоскостях решения.
Не нравится мое определение, предложите свое определение разума и интеллекта. Только давайте без теологии, мистики и абстракций высоких категорий. Мы же говорим только о практической стороны? А вопрос "разума", как сложилось в эпоху Возрождения "божественного происхождения", так все больше только в этом ключе. Но в эпоху информационного общества, интернета и современных компьютеров, это уже несколько смешно.
Все это к тому доводу который был еще в прежнем споре. Человек тем и отличается от животного, что умеет заставлять вместо себя умирать идеи. Как именно это работает объяснил в статье. Проще заставить умирать представление о будущем, чем умирать лично и персонально. И это представление о будущем, и есть вторая гиперплоскость решения. И как именно она формируется, тоже объяснил. Именно механизм ее формирования и есть основа "метода" который мы считаем разумом, поскольку этот метод и обеспечивает разумное поведение.
Цитата, Altantal сообщ. №34
Я слышу в голосе сарказм. Но ведь по факту так и есть.
Задайте себе идиотски простой вопрос - Зачем? А то вы похоже именно "бегаете по лабиринту".
0
Сообщить
№37
25.12.2018 19:41
Цитата, Корректор сообщ. №33
Статья о разуме вообще. О разуме как методе и процессе. А какого именно он происхождения значения не имеет.
Ещё как имеет, потому что ИИ теоретически может использовать для своей деятельности как на человеческие модели работы разума, так и не человеческие. Не известно, что будет реализовать проще.

Цитата, Корректор сообщ. №33
Сеть нейронов может быть биологического происхождения, может быть на тензорных процессорах, а может быть вообще механической. :)))
При этом, даже биологическая нейросеть может работать совершенно иначе, чем человеческий мозг.

Цитата, Корректор сообщ. №33
Вот и объясняю что именно собой представляет.
А Вы это знаете? Может тогда разработчикам ИИ объясните? А то они не очень хорошо понимают, как человеческий разум работает. :)

Цитата, Корректор сообщ. №33
И только не нужно утверждать, что продукт работы нейронных сетей это "просто".
По сравнению с работой человеческого разума даже не просто, а примитивно. Но и с нейронными сетями только относительно недавно начали экспериментировать. Порядка 60 лет. Естественно, что многое не получается.

Цитата, Корректор сообщ. №33
В данном случае уверен. Никакого "чудного механизма разума" в мозге не обнаружено.
Это и наводит на мысль, что современная наука не правильно понимает, как именно человеческий мозг работает. Было бы всё так просто, и уже смогли бы воспроизвести подобные процессы искусственно.

Цитата, Корректор сообщ. №33
А вот тот факт что мозг состоит из нейронов и оно образуют сети, факт доказанный и прекрасно известный. Как и существует проект моделирования работы мозга.
Доказанный. Но не доказано, что нейронные сети – это всё, что нужно для работы человеческого мозга. И с этим моделированием пока не очень получается. Если Вы о Blue Brain Project, то там смоделировали всего одну нейронную колонку неокортекса мозга крысы на 10000 нейронов, и даже данные по её работе с трудом анализируют. Сейчас пытаются смоделировать соединение из нескольких таких колонок. А в мозге человека содержится порядка 100 миллиардов нейронов. Всех нынешних компьютерных мощностей человечества не хватит даже на моделирование работы одного человеческого мозга.

Цитата, Корректор сообщ. №33
Это вполне проверяемая гипотеза. :))))
Которую пока ещё не проверили.

Цитата, Корректор сообщ. №33
Система "свой-чужой" очевидно имеет преимущество при активных системах поиска цели, но имеет очевидные границы применения.
Любая система имеет границы применения, даже человеческий разум. Главное, что задача распознавания "свой–чужой" довольно эффективно решается в большинстве случаев без всяких ИИ или самообучающихся сетей.

Цитата, Корректор сообщ. №33
И для селекции целей в современных военных системах все чаще применяются именно нейронные сети.
Пока применяются для поиска и распознания образов целей, а селекция целей осуществляется вполне традиционными компьютерными методами.

Цитата, Корректор сообщ. №33
Давайте определимся. Нейронная сеть будет не ошибаться вообще, а будет чаще ошибаться вполне определенным образом, в сторону огня по своим. Почему именно так, связанно с "задачей спелых помидоров". Просто у нее только одна плоскость принятия решения, и сечение этой плоскости будет неизменно смещаться в сторону "все враги".
Всегда можно задать ограничение, по которому нужные объекты будут исключаться из категории врагов. Например, наличие правильного отклика системы "свой–чужой". Даже система распознания спелости помидоров до 80% помидоров распознаёт правильно. Если такая система будет распознавать параметр цели "свой–чужой" в 80% случаев, когда не срабатывает ответчик, правильно, то и случаи дружественного огня будут довольно редки.

Цитата, Корректор сообщ. №33
Из предложенной концепции разума именно так и получается.
Из концепции, достоверность которой, позвольте напомнить, пока ни кто не доказал.

Цитата, Корректор сообщ. №33
Может тогда сначала определимся что это такое разум? Свое представление на основе разумного поведения уже предложил.
Так наука ещё не определилась. Какая разница, кто как себе представляет, чем является разум? Даже если кто-то методом научного тыка попадёт в правильное определение, то как узнать, что он угадал его? С таким же успехом можно пытаться дать определение состоянию Вселенной до Большого взрыва.

Цитата, Корректор сообщ. №33
Юмор в том, что современный нейронные сети таковым "черным ящиком" и являются. И тут ничего не изменишь, таковая их суть и основа - математическая статистика.
Однако работа современных нейронных сетей вполне поддаётся анализу. К тому времени, когда станет возможно создание реальных ИИ, должны появиться инструменты для анализа их работы. Собственно без таких инструментов, вероятность создания полноценного ИИ будет сводиться к случайному везению.

Цитата, Корректор сообщ. №33
Метод одинаковый. А это просто вопрос реализации метода.
Снова повторю. Методы одинаковые, а вот реализация очень сильно отличается. Например алгоритм AlphaGo мог использоваться как обычными компьютерами, так и нейросетями. А вот AlphaZero уже только нейросетями. Сам по себе метод не может развиться во всё, что угодно, на этом методе основанное. Под конкретную задачу требуется создавать конкретное решение. Поэтому программа или компьютер для игры в шахматы не сможет планировать реальные боевые операции.

Цитата, Корректор сообщ. №33
Верно. Но нужно понимать, что интеллект это не сама нейронная сеть, а результат ее работы как гиперплоскость решения.
А может интеллект существовать без наличия нейронной сети или нет, современная наука ещё не определилась. Так что и давать определение интеллекта с привязкой к нейросетям преждевременно. В каких видах и формах может существовать эта самая гиперплоскость решений?

Цитата, Корректор сообщ. №36
Думая вам известно что нет определения понятия "разум" иначе как философского. Вот явление есть, а практического определения нет.
Как нет и чёткого понятия ИИ, либо его отличия от разума.
0
Сообщить
№38
25.12.2018 22:47
Цитата, Геннадий Гущин сообщ. №37
Ещё как имеет, потому что ИИ теоретически может использовать для своей деятельности как на человеческие модели работы разума, так и не человеческие. Не известно, что будет реализовать проще.
Мы так очень сильно запутаемся. Потому что убежден на 100%, вы сами не сможете ответить на вопрос что такое "человеческое". Да просто потому что само определение человек, это "человек разумный". Его определяющим признаком является разум.
Так что мы сразу пошли по кругу. А все дело в том, что самом понятие человек, как и понятие разум, родом из средних веков. А там и человек и разум исключительно божественного происхождения.
Так что давайте вернемся в плоскость современной информатики, нейронных сетей и их математике. И математика на всех одна. Мы можем спорить по философии, вопросам материализма или идеализма, но математика для этой вселенной одна.
Цитата, Геннадий Гущин сообщ. №37
При этом, даже биологическая нейросеть может работать совершенно иначе, чем человеческий мозг.
Способов создания нейронных сетей и возможных архитектуры мы уже знаем немало. Но математические принципы одинаковые. Как и результат их работы всегда одинаковый - "вероятность решения". О чем и говорю, геометрически проще всего представить как гиперплоскость или объем многомерного пространства включающий вероятность решения.
Говоря проще, это метод бесконечного "бросания костей" с целью выяснить неизвестную площадь геометрической фигуры представляющей собой "решение" в плоскости задачи. Просто когда мы говорим о нейронных сетях это чаще не плоскость, а "объем" решения.
Это самый элементарный "метод кувалды" когда решение принципиально не известно. Все лишнее "в паз" не войдет и отсекается.
Но математически "кувалда" всегда одинаковая - "бесконечное бросание костей".
Цитата, Геннадий Гущин сообщ. №37
А Вы это знаете? Может тогда разработчикам ИИ объясните? А то они не очень хорошо понимают, как человеческий разум работает. :)
Так выше уже объяснил, и на мой взгляд, довольно просто - две гиперплоскости решения, а не одна. Одна плоскость результат случайной выборки. Друга результат наследования.
Да вы сами подумайте. Вот вы сейчас общаетесь со мной используя язык общения в котором закодированы понятия. А что такое понятие если не площади сечения объемов, сами объемы? Как и абстракции, это только функции приращения объемов или пересечения объемов и сечений. Все можно отобразить геометрически.
Цитата, Геннадий Гущин сообщ. №37
По сравнению с работой человеческого разума даже не просто, а примитивно.
Естественно. Тоже не утверждаю что "все понял". Просто говорю о самом простом объяснении базовых механизмов. Предположил как работает человеческий разум, как метод сочетание случайной выборки и наследования.
Цитата, Геннадий Гущин сообщ. №37
Это и наводит на мысль, что современная наука не правильно понимает, как именно человеческий мозг работает.
Да как мозг работает "по частям" все уже понятно. Вопрос в другом, как это все целиком. И что самое главное, если рассматривать отдельный мозг в отрыве от общества, то никакого "разума" там нет и быть не может. Разум, это производное от общества. Просто так уж традиция сложилась, что считается что человек разуме "сам по себе", хотя множество примеров "Маугли" доказывают ровно обратное. Ни черта человек исключенный из общества не разумный.
Вот и получается, что разум бессмысленно искать в отдельном мозге. Его там нет. Как и человек не божественного происхождения, и разум совсем не божественный дар.
Цитата, Геннадий Гущин сообщ. №37
Если Вы о Blue Brain Project, то там смоделировали всего одну нейронную колонку неокортекса мозга крысы на 10000 нейронов, и даже данные по её работе с трудом анализируют.
Но тем не менее, смоделировали. :))) И выше уже написал, что любая нейронная сеть по определению "черный ящик". Так что бюджеты можно осваивать дики. Только представьте сколько поверхности может быть и 3-4-5 мерной геометрической фигуры описывающей "объем решения". :))))))
Нет необходимости моделировать человеческий мозг полностью для понимания как работает человеческий разум. Достаточно будет понять как "работает" общество, а элементарное понимание математики нейронных сетей уже позволяет примерно прикинуть как работает метод случайной выборки и наследования. Что и есть наш разум.
Цитата, Геннадий Гущин сообщ. №37
Которую пока ещё не проверили.
Но это вполне возможно. Даже путем создания ИИ. А можно и проще через изучение общества. ;)
Никогда не думали что общество это система наследования стратегий? А что морфология человеческого языка совершенно не случайна?
Есть уже немало работ которые рассматриваю язык как основу мышления. К чему и веду - вторая гиперплоскость и опережающее отражение.
Цитата, Геннадий Гущин сообщ. №37
Любая система имеет границы применения, даже человеческий разум.
Тут могу с вами поспорить, но тогда придется уйти в представление о вселенной как о гиперсфере, а тут мне самому явно нужна помощь физиков теоретиков.
Цитата, Геннадий Гущин сообщ. №37
Главное, что задача распознавания "свой–чужой" довольно эффективно решается в большинстве случаев без всяких ИИ или самообучающихся сетей.
Так а кто спорит. Тут главное понимать о чем мы говорим. О жестком алгоритме или о машине способной учиться. Причем учиться на практике.
Да и границы применения системы "свой-чужой" совершенно очевидны.
Цитата, Геннадий Гущин сообщ. №37
Пока применяются для поиска и распознания образов целей, а селекция целей осуществляется вполне традиционными компьютерными методами.
Вы бы уточнили какими именно "традиционными методами". А то разработчики говорят что именно нейронная сеть и различает грузовик и танк. И это вполне традиционно, и придумано очень давно. Просто сеть очень простенькая и примитивная. Без фантазий, все прежняя "кувалда".
Цитата, Геннадий Гущин сообщ. №37
Даже система распознания спелости помидоров до 80% помидоров распознаёт правильно. Если такая система будет распознавать параметр цели "свой–чужой" в 80% случаев, когда не срабатывает ответчик, правильно, то и случаи дружественного огня будут довольно редки.
Когда есть "свой-чужой" опознание уже не требуется. Но если нейронная сеть, то в условиях динамической изменяющихся условий смещения в сторону "все враги" просто неизбежно.
Вы правильно в самом начале написали. Роботов лучше всего применять там где нет никаких "своих". По своей сути, сегодня они просто чертовки продвинутые мины. И как любая мина, наиболее эффективна против неподготовленный - гражданского населения.
И ничего не изменится пока они не станут "разумными" не меньше чем человек. Но в том и суть, что это тоже никакой практической пользы не дает. Если конечно разобраться как работает разум вообще.
Цитата, Геннадий Гущин сообщ. №37
Даже если кто-то методом научного тыка попадёт в правильное определение, то как узнать, что он угадал его?
Как оно и обычно, проверить на практике. :)))
Цитата, Геннадий Гущин сообщ. №37
С таким же успехом можно пытаться дать определение состоянию Вселенной до Большого взрыва.
И тем не менее, мы пытаемся это сделать, поскольку таковы основы метода человеческого разума. :)))
Цитата, Геннадий Гущин сообщ. №37
Однако работа современных нейронных сетей вполне поддаётся анализу.
Поговорите с разработчиками и оцените качество их матов. Вы путаете математическую статистику и частный случай "выпадения костей". Почему итоговая сумма будет именно такая понять можно, но почему на тот момент времени выпало именно это число, это уже к вопрос "что было до Большого взрыва".
Цитата, Геннадий Гущин сообщ. №37
К тому времени, когда станет возможно создание реальных ИИ, должны появиться инструменты для анализа их работы. Собственно без таких инструментов, вероятность создания полноценного ИИ будет сводиться к случайному везению.
Математическая статистика и сейчас существует. Почему мы и создаем нейронные сети. :))))
Цитата, Геннадий Гущин сообщ. №37
Сам по себе метод не может развиться во всё, что угодно, на этом методе основанное. Под конкретную задачу требуется создавать конкретное решение.
Давайте не будет говорить за разработчиков. :))) Но метод одинаковый.
Цитата, Геннадий Гущин сообщ. №37
Поэтому программа или компьютер для игры в шахматы не сможет планировать реальные боевые операции.
да не по этому. Вы просто не разобрались причем тут Монте-Карло. Для статической задачи работать будет безотказно. Но для динамической задачи потребуются миллиарды "Монте-Карло" и цепочки наследования длинной в столетия.
Цитата, Геннадий Гущин сообщ. №37
А может интеллект существовать без наличия нейронной сети или нет, современная наука ещё не определилась.
Для того и научный метод познания чтобы ставить под сомнение и проверять экспериментально. ;)
Цитата, Геннадий Гущин сообщ. №37
Так что и давать определение интеллекта с привязкой к нейросетям преждевременно.
Не выдвигая гипотезы и не проверяя их нельзя и получать новые знания.
Цитата, Геннадий Гущин сообщ. №37
В каких видах и формах может существовать эта самая гиперплоскость решений?
Проще не бывает. Есть условия задачи как некая система координат, и есть некая неизвестная геометрическая фигура отвечающая правильному решению. Долбим случайном порядке пока не найдем контуры "правильного решения". Или говоря проще если есть отверстие неизвестной формы берем круглый штифт и долбим "кувалдой" вероятности пока не заполним весь объем. Просто как кувалда. Но поскольку "выпадение костей" иногда повторяются проще изображать все это набором векторов на плоскости. Не рисовать же 4-5 мерные координаты условий и геометрические фигуры? Вот вам и гиперплоскость и сущность нейронной сети - результат работы "кувалдой случая".
Другой вопрос вторая гиперплоскость разума. Это уже не ваша личная кувалда. И не ваш конкретный случай, а результат бесконечных ударов кувалдой случая других. Тех кто жил и думал до вас. Вы просто это наследуете и усваиваете в процессе социализации. А работает это потому что целью наследования является опережающее отражение. И все потому, что без опережающего отражения и вам и обществу не выжить в динамически меняющихся условиях среды. Это просто механизм выживания. И одновременно механизм обмана эволюции. Зачем умирать и эволюционировать лично, если можно заставить умирать идеи?
Цитата, Геннадий Гущин сообщ. №37
Как нет и чёткого понятия ИИ, либо его отличия от разума.
Выше уже попытался объяснять с позиции различия между разумным поведением и рациональным. Есть рационально, а есть разумно и осмотрительно. И заметьте "разумно и осмотрительно" почти всегда вместе. Подсказке о структуре разума, его механизмах, в самом строении нашего языка.
0
Сообщить
№39
26.12.2018 13:36
ВИКИПЕДИЯ: Гиперплоскость — подпространство коразмерности 1 в векторном, аффинном пространстве или проективном пространстве; то есть подпространство с размерностью, на единицу меньшей, чем объемлющее пространство.
Например, для двумерного пространства гиперплоскость есть прямая, для трёхмерного — плоскость, для четырёхмерного — трёхмерное пространство («трёхмерная плоскость») и т. д.
Цитата, Корректор сообщ. №38
Мы так очень сильно запутаемся. Потому что убежден на 100%, вы сами не сможете ответить на вопрос что такое "человеческое". Да просто потому что само определение человек, это "человек разумный". Его определяющим признаком является разум.
Так что мы сразу пошли по кругу. А все дело в том, что самом понятие человек, как и понятие разум, родом из средних веков. А там и человек и разум исключительно божественного происхождения.
В рамках креационистской концепции не только человек и его разум - но и вся вселенная сотворены Творцом. Но это не отменяет возможности познания её объектов (хотя и актуализирует дискуссию о принципиальных пределах познаваемого).
А что касается происхождения понятий - многие из используемых наукой понятий имеют очень давнее происхождение. Например "атом" - он ведь родом из Древней Греции. Но это же не означает, что мы остались на том древнем уровне понимания (толкования) этого понятия.
"Круги", о которых вы постоянно упоминаете, это всего лишь попытки вашего собеседника понять что именно вы хотите сказать.
Если хотите, чтобы кругов было меньше - пользуйтесь  общепринятыми понятиями, а если используете свои собственные - определяйте их корректно тут по месту (без отсылки к внешним пространным опусам).
0
Сообщить
Хотите оставить комментарий? Зарегистрируйтесь и/или Войдите и общайтесь!
ПОДПИСКА НА НОВОСТИ
Ежедневная рассылка новостей ВПК на электронный почтовый ящик
  • Разделы новостей
  • Обсуждаемое
    Обновить
  • 22.12 19:04
  • 62
Уроки Сирии
  • 22.12 16:55
  • 6575
Без кнута и пряника. Россия лишила Америку привычных рычагов влияния
  • 22.12 16:54
  • 8546
Минобороны: Все авиаудары в Сирии пришлись по позициям боевиков
  • 22.12 13:34
  • 2
Еще немного в тему о танках (конечно, не без повторений :))
  • 22.12 07:45
  • 1
Китай показал запуск гиперзвуковых беспилотников с борта воздушных носителей
  • 22.12 03:15
  • 1
Немного о терминах.
  • 21.12 20:11
  • 2756
Как насчёт юмористического раздела?
  • 21.12 13:42
  • 1
Израиль нанес массированные авиаудары по Йемену
  • 21.12 13:02
  • 1
Путин заявил, что если бы и изменил решение о начале СВО в 2022 г., то в том, что его нужно было принимать раньше
  • 21.12 02:42
  • 1
Ответ на "Оружие, спровоцировавшее новую гонку ядерных вооружений, — в которой побеждает Россия (The Telegraph UK, Великобритания)"
  • 20.12 17:19
  • 1
РХБЗ: теория или практика
  • 20.12 16:07
  • 0
В системе стандартов серии ISO 55000 прошло масштабное обновление в 2024 году
  • 20.12 09:18
  • 0
Азиатский кейс Беларуси
  • 20.12 08:47
  • 0
Ответ на "В ЦРУ оценили легендарный Т-34. Как принципы производства советского танка влияют на СВО"
  • 20.12 05:07
  • 1
Израиль вынуждает новую Сирию возродить арабское военное искусство