От Ibuki
К pamir70
Дата 01.03.2017 21:53:52
Рубрики Современность;

Re: Поскольку ИИ...

>То тут всё так же как с программируемым минным полем
Лучше как с артиллерийским огневым валом.

Прорывы в ИИ в последние время посыпались как из ведра.
https://www.youtube.com/watch?v=hX0UELNRR1I

От pamir70
К Ibuki (01.03.2017 21:53:52)
Дата 01.03.2017 23:18:00

Re: Поскольку ИИ...

>Лучше как с артиллерийским огневым валом.
Меньше ассоциаций. Вал не выбирает мишени как "Охота" :)
>Прорывы в ИИ в последние время посыпались как из ведра.
Это сильно не то. Тест Тьюринга. Недосягаем.
Да даже на уровне собаки/кошки..тоже ещё нет прорыва :)

От Ibuki
К pamir70 (01.03.2017 23:18:00)
Дата 02.03.2017 01:02:26

Re: Поскольку ИИ...

>>Лучше как с артиллерийским огневым валом.
> Вал не выбирает мишени как "Охота" :)
Так это даже хуже для гражданских и побочного ущерба. Здесь плюс роботам.

>>Прорывы в ИИ в последние время посыпались как из ведра.
>Это сильно не то. Тест Тьюринга. Недосягаем.
Вам какой тест Тьюринга? На ограниченных задачах еще лет 70 назад автопилоты даже не повторили, а превзошли человека, прицел Норден был такой. И фокус в том что решение боевых задач полноты интеллекта не требует.

>Да даже на уровне собаки/кошки..тоже ещё нет прорыва :)
Распознавание препятствий по картинке - это прорыв в практики конструирования и применения автономных роботов. Всего декаду назад это было доступно только оператору-человеку.

От pamir70
К Ibuki (02.03.2017 01:02:26)
Дата 02.03.2017 16:07:33

Re: Поскольку ИИ...

>Так это даже хуже для гражданских и побочного ущерба. Здесь плюс роботам.
Программируемая противопехотная мина - тоже робот :)
>Вам какой тест Тьюринга? На ограниченных задачах еще лет 70 назад автопилоты даже не повторили, а превзошли человека, прицел Норден был такой. И фокус в том что решение боевых задач полноты интеллекта не требует.
Это не совсем так. Вот если бы прицел Нордена обладал способностью к селекции целей по нескольким критериям с принятием решений на тип выхода на БК и прочие мелочи...
>Распознавание препятствий по картинке - это прорыв в практики конструирования и применения автономных роботов. Всего декаду назад это было доступно только оператору-человеку.
Никто не говорит об отсутствии результатов :). Что касается картинок..Человек выпишет штраф за пересечение тенью автомобиля сплошной линии? :)

От Петров Борис
К pamir70 (02.03.2017 16:07:33)
Дата 04.03.2017 09:38:33

Вопрос имеется

Мир вашему дому

>Это не совсем так. Вот если бы прицел Нордена обладал способностью к селекции целей по нескольким критериям с принятием решений на тип выхода на БК и прочие мелочи...

Насколько ИИ в контексте вышеизложенного является следующий боеприпас?

1. Прилетает в район цели, выбрасывает боевой элемент (БЭ для краткости)
2. БЭ опускается на ленточном парашюте, сканируя местность по сужающейся спирали, при этом включает 3 датчика: ИК, локатор, лазер (определяет ими теплый-холодный, размер и метал/не металл) - как раз селекция целей по нескольким критериям.
3. Выбирает подходящую под заложенные ограничения цель из группы объектов и поражает выбранный объект (принятие решения и исполнение)

С уважением, Борис

От pamir70
К Петров Борис (04.03.2017 09:38:33)
Дата 06.03.2017 18:06:09

Re: Вопрос имеется

>3. Выбирает подходящую под заложенные ограничения цель из группы объектов и поражает выбранный объект (принятие решения и исполнение)
Хм...вот тут провал. Может боеприпас не поражать объект..а поразить нависающий скальный козырёк над группой объёктов?
Т.е решить не запрограммированную заранее задачу :)

От Петров Борис
К pamir70 (06.03.2017 18:06:09)
Дата 06.03.2017 18:42:00

Re: Вопрос имеется

Мир вашему дому
>>3. Выбирает подходящую под заложенные ограничения цель из группы объектов и поражает выбранный объект (принятие решения и исполнение)
>Хм...вот тут провал. Может боеприпас не поражать объект..а поразить нависающий скальный козырёк над группой объёктов?
>Т.е решить не запрограммированную заранее задачу :)

Что то не совсем понял суть возражения.
Если объект недоступен - козырек мешает - то задача попросту не выполнима вследствие ограничений внешнего характера, не предусмотренные для данной конструкции

Будь робот-манипулятор, закрепленный стационарно, хоть 7 раз ИИ, если стена мешает дотянуться до цели - он ничего не сделает. Хотим, чтоб всегда дотянулся - ставим оного на колеса.
С боеприпасом ровно так же. Добавляем в Смерчевский боевой элемент темы ЕМНИП "Приклад" 80-х годов подруливающие двигатели, крылья, и т.д. - и "вуаля" - козырек обходим.

Вот только это к вопросу ИИ (технологическая реализация девайса) отношения не имеет.


С уважением, Борис

От pamir70
К Петров Борис (06.03.2017 18:42:00)
Дата 07.03.2017 00:09:40

Re: Вопрос имеется

>Если объект недоступен - козырек мешает
Нет.Просто в определённый момент средство поражения "понимает" что "сдвинув" лавину -она поразит больше целей внизу.Нежели одну..отселектировонную.
И принимает решение на осуществление такого,абсолютно не программируемого заранее, варианта.
Т.е "действует по обстановке " :)

От АМ
К pamir70 (06.03.2017 18:06:09)
Дата 06.03.2017 18:37:35

Ре: Вопрос имеется

>>3. Выбирает подходящую под заложенные ограничения цель из группы объектов и поражает выбранный объект (принятие решения и исполнение)
>Хм...вот тут провал. Может боеприпас не поражать объект..а поразить нависающий скальный козырёк над группой объёктов?
>Т.е решить не запрограммированную заранее задачу :)

а можно более реалистичный пример?

От pamir70
К АМ (06.03.2017 18:37:35)
Дата 07.03.2017 00:07:30

Ре: Вопрос имеется

>а можно более реалистичный пример?
А это и есть "реалистичный". Поражение из гранатомёта скального козырька с завалом пулемётной точки под ним,грудой камней

От АМ
К pamir70 (07.03.2017 00:07:30)
Дата 08.03.2017 17:10:25

Ре: Вопрос имеется

>>а можно более реалистичный пример?
>А это и есть "реалистичный". Поражение из гранатомёта скального козырька с завалом пулемётной точки под ним,грудой камней

этот вариант скорее непреминим к 99.9999999999999999999999 процентов таких целей, хотелось бы примеров где вероятность повыше

От pamir70
К АМ (08.03.2017 17:10:25)
Дата 08.03.2017 22:35:12

Ре: Вопрос имеется

>этот вариант скорее непреминим к 9
Но имеет место ФАКТИЧЕСКОЕ проявление такой солдатской смекалки :). И не единственное.
Как пример это приводится только потому, что ни одно из имеющихся на сей момент устройств так не сможет.

От АМ
К pamir70 (08.03.2017 22:35:12)
Дата 10.03.2017 18:10:27

Ре: Вопрос имеется

>>этот вариант скорее непреминим к 9
>Но имеет место ФАКТИЧЕСКОЕ проявление такой солдатской смекалки :). И не единственное.
>Как пример это приводится только потому, что ни одно из имеющихся на сей момент устройств так не сможет.

ну так это не страшно если устройство будет плохо работать только в 0,000000000009 случаев

От Ibuki
К pamir70 (02.03.2017 16:07:33)
Дата 02.03.2017 20:20:30

Re: Поскольку ИИ...

>>Вам какой тест Тьюринга? На ограниченных задачах еще лет 70 назад автопилоты даже не повторили, а превзошли человека, прицел Норден был такой. И фокус в том что решение боевых задач полноты интеллекта не требует.
>Это не совсем так.
Это именно так, ключевым отличием Нордена было что он не только вычислял координаты падения бомбы, но у управлял самолетом на боевом курсе и делал это лучше человека, бомбометание выходло точнее. Пилота заменяет автопилот.

Вообще что у нас за тест Тьюринга? Он оценивает ИИ на основе речевой коммуникации. Оно военным надо? Военным робот болтун не нужен. Им нужен робот оператор.

Сконструируем тест Тюринга для оператора. Посадим в один танк экипаж, в другой танк - автопилот. Оба получает задачу "выйти из точки А на огневой рубеж в точке Б, обнаружить и поразить цели в районе В и вернуться в точку А". Судьи-эксперты наблюдают за выполнением танками этой задачи. Эксперты не знают где экипаж и где автопилот, слепой тест. Что будет если эксперты на основе своих наблюдений не могут дать достоверных заключений кто есть кто? Получается что это автопилот есть искусственный интеллект пригодный для решение задач управления танком.

Дальше ее интереснее, что будет если эксперты могут достоверно определить где автопилот, потому что автопилот функционирует лучше экипажа? Экипаж выполнил задание за 10 минут, поразил 50% целей, автопилот за 5 минут и поразил 100% целей? Эксперты достоверно определяют в каком танке автопилот. Тест Тюринга не пройден, это не искусственный интеллект. А военные в ответ: "хотим, хотим такой автопилот?" Как быть в этом случае?



От pamir70
К Ibuki (02.03.2017 20:20:30)
Дата 02.03.2017 22:45:20

Re: Поскольку ИИ...

>Это именно так, ключевым отличием Нордена было что он не только вычислял координаты падения бомбы, но у управлял самолетом на боевом курсе и делал это лучше человека, бомбометание выходло точнее.
Прицел Нордена :) делает это значительно хуже чем "Мальва" а та хуже человека .
Да и с "вычислением" было не очень..В связи с невозможностью получать данные по сдвигу ветра на различных высотах :)
Думаю что НКПБ-7 на 3000 метрах будет точнее прицела Нордена на 7000