Больше интересно, как они собираются это всё обеспечивать?
>1. Ответственность. Персонал министерства обороны США будет проявлять надлежащий уровень здравомыслия и внимательности, будучи ответственным за разработку, развертывание и использование возможностей AI.
"И если Родина прикажет мне сделать самолёт, летающий на коньяке..." Насчёт здравомыслия и внимательности есть большие вопросы. Особенно после полёта с ёмбами.
>2. Беспристрастность. Министерство обороны США предпримет шаги к минимизации непреднамеренных изменений в возможностях AI.
К минимизации, а не к исключению. Само по себе прекрасно.
>3. Доступность для анализа. Разработка и развертывание AI в Министерстве обороны США будет прозрачной, основанной на проверяемых методологиях, источниках данных, процедурах проектирования и документации. Персонал должен иметь надлежащее понимание технологий, процессов разработки и методов работы, применяемых при этом.
Прозрачной для кого? Разработчиков конечного кода? В жизни не поверю. Не было такого и никогда не будет.
>4. Надежность. AI найдет четко определенное применение, безопасность, надежность и эффективность которого будут подлежать проверке.
А кто проверять будет? Те же, кто пишет? Или с помощью прозрачности отдельный отдел тестеров?
>5. Управляемость. Министерство обороны США будет проектировать и разрабатывать возможности ИИ для выполнения их намеченных функций, обладая способностью обнаруживать и избегать непреднамеренных последствий, а также способностью отключать или деактивировать развернутые системы, которые демонстрируют непреднамеренное поведение.
Т.е. по сути, заранее все предупреждаются, что последствия будут. Но типа, у нас будет рука на пульсе, ага.
>К чему они ближе к ТБ или разного рода принципам наподобие "Этики судьи"?