建議草案強調了人工智能系統的人為控制。它寫道:“人類應該行使適當的判斷力,并對國防部AI系統的開發,部署,使用和成果負責。”

該DIB指引和陪同實現文檔,遠遠超出了簡單的和較大面積的愿景陳述對AI頒發的科技巨頭,如谷歌,Facebook和微軟。例如,這些建議描述了商業參與者才剛剛開始努力應對的AI發展中的主要危險和陷阱,例如數據集中的偏差。
該DIB還建議國防部依靠是透明的工具,這意味著,不像某些類型的所謂的“黑盒子”神經網絡,技術專家(許可)可以說明,通過該軟件達到特定的決策或行動的過程。
董事會還建議僅在“明確的明確使用范圍”內使用此類工具,該法令旨在防止為非戰斗活動開發的軟件無法進入致命行動。
賓夕法尼亞大學政治科學教授Michael C. Horowitz表示:“最終影響將不僅取決于原則如何真正影響國防部對AI的投資,而且還取決于更廣泛的AI社區如何看待DoD行動。” 但是,他說:“ 認真對待AI道德規范可能會增加更廣泛的AI社區中的一些懷疑論者愿意與DoD合作的機會,同時還可能提高算法在上使用的可靠性和有效性。”