В настоящей работе авторы рассматривают проблематику, касающуюся нравственных и этических аспектов искусственного интеллекта, а именно: как научить искусственный интеллект вести себя, исходя из общечеловеческих принципов морали и этики? На сегодняшний день вопрос не является до конца решенным. В работе приводятся теоретические и эмпирические примеры «этической уязвимости» искусственного интеллекта и предлагаются возможные способы их устранения. Одним из них может являться комплекс пропедептических мер, позволяющий предупредить возникновение этических проблем и дилемм ещё на стадии проектирования, а также разработка новых, более совершенных, в т.ч. интеллектуальных способов модерации получаемых данных. Немаловажным в данном контексте будет постоянное участие и наблюдение экспертов, в связи с чем встает вопрос о потребности в компетентных специалистах в области обучения систем ИИ этике и законодательным нормам, менеджеров по устойчивости ИИ к случайным или продуманным вбросам и провокациям, специалистов по киберправу, предотвращающих и разбирающих нежелательные результаты функционирования интеллектуальных систем. Системы модерирования и анализа запросов и результатов генерации информации требуют анализа и проработки на самом глубинном уровне.