От Estel Ответить на сообщение
К damdor Ответить по почте
Дата 29.02.2020 13:04:51 Найти в дереве
Рубрики Современность; Флот; Армия; ВВС; Версия для печати

Больше интересно, как они собираются это всё обеспечивать?

>1. Ответственность. Персонал министерства обороны США будет проявлять надлежащий уровень здравомыслия и внимательности, будучи ответственным за разработку, развертывание и использование возможностей AI.

"И если Родина прикажет мне сделать самолёт, летающий на коньяке..." Насчёт здравомыслия и внимательности есть большие вопросы. Особенно после полёта с ёмбами.

>2. Беспристрастность. Министерство обороны США предпримет шаги к минимизации непреднамеренных изменений в возможностях AI.

К минимизации, а не к исключению. Само по себе прекрасно.

>3. Доступность для анализа. Разработка и развертывание AI в Министерстве обороны США будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Персонал должен иметь надлежащее понимание технологий, процессов разработки и методов работы, применяемых при этом.

Прозрачной для кого? Разработчиков конечного кода? В жизни не поверю. Не было такого и никогда не будет.

>4. Надежность. AI найдет четко определенное применение, безопасность, надежность и эффективность которого будут подлежать проверке.

А кто проверять будет? Те же, кто пишет? Или с помощью прозрачности отдельный отдел тестеров?

>5. Управляемость. Министерство обороны США будет проектировать и разрабатывать возможности ИИ для выполнения их намеченных функций, обладая способностью обнаруживать и избегать непреднамеренных последствий, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.

Т.е. по сути, заранее все предупреждаются, что последствия будут. Но типа, у нас будет рука на пульсе, ага.

>К чему они ближе к ТБ или разного рода принципам наподобие "Этики судьи"?

Скорее к антинаучной фантастике.