Блог Доктора Демкина

Статьи о психологии и психодиагностике

Основные элементы психологических операций

Основные элементы психологических операций

Таксономия задач информационных операций  

 Современное военное оперативное планирование также осложняется тем фактом, что важность общественного мнения в современных военных конфликтах трудно переоценить. От операций по поддержанию мира, до борьбы с повстанцами и асимметричных (гибридных)  войн до полномасштабных международных вооруженных конфликтов, восприятие общественности стало полем битвы столь же реальным, как воздух, суша и моря.

«Модус операнди» информационных операций в сети Интернет, будь то операции наступательные, или оборонительные, опирается на приведенную ниже таксономию, используемую в вооруженных силах стран НАТО [NATO, 2009]. Методы Интернет-информационных операций позволяют государственным субъектам широкие возможности состязательного формирования информационной среды [Franke U., 2013].

Обесценивание

Определение: Сделать явление меньше или заставить казаться менее значительным для снижения эффективности той или иной деятельности.

  • Традиционный способ уменьшить влияние информации, угрожающей чьим-либо интересам, - распространять опровержения и очернения через Интернет. Например, китайская стратегия пропагандистских сайтов - продвижение официальной лини правительства о том, что в стране нет нарушений прав человека [Chase M. Mulvenon J., 2002].
  • Более современным способом является использование социальных сетей для уменьшения масштаба событий. Например, приуменьшение количества участников антиправительственных выступлений.

Разоблачение

Определение: Выявить и сделать нежелательное или вредное событие для противника или факт известным для общественности.

  • Разоблачение не обязательно должно быть истинным, чтобы распространяться и оказывать необходимое воздействие. Например, фейковые или постановочные изображения могут быть распространены в Интернете. Например, убитые солдаты могут быть переодеты в гражданскую одежду и выданы за жертвы среди мирного населения [Collings D., Rohozinski R., 2009].
  • Незаконно собранная частная переписка может «случайно» просочиться в прессу с целью дискредитации лидеров оппозиции или государственных деятелей.

 Влияние

Определение: Вызвать изменение в настроениях, мыслях или действиях определенной

целевой аудитории. Например, может выбираться отдельный аспект события или факта, либо они могут искажаться, чтобы убедить противника действовать таким образом, чтобы нанести ущерб выполнению их миссии, при этом способствуя достижению собственных целей.

  • Основной используемый прием информационного влияния – это различные способы предотвращения свободного доступа общественности к материалам Интернета и фильтрация целевой информации в ущерб другой [Thomas T., 2009].
  • Даже бесхитростная пропаганда может быть эффективной: если не для того, чтобы повлиять на оппонентов, то для того, чтобы поощрить последователей. Например, режим Асада в Сирии или его сторонники распространяли ролики на Youtube, в которых уничтожался логотип Аль-Джазиры.
  • Распространение сообщений с двусмысленным (серым) или откровенно ложным (черным) источником информации - это также способ повлиять на мнения. Предположительно, подрядчики Пентагона писали прозападные статьи для иракских газет в 2004-2005 годах [Thomas T., 2009], а веб-сайты по африканской или балканской политике управлялись американскими военными [Brookes A., 2013]. Скрытое авторство является одним из проверенных способов сделать пропаганду более эффективной [Daniels J., 2009].
  • Появление социальных сетей открыло новые горизонты для операций влияния. Например, предвыборные кампании Буша и Гора 2000 года использовали методы, аналогичные используемым китайским правительством, для проведения «управляемой дискуссии», призванной повлиять на выбор граждан [Lungu A., 2001]. Северная Корея использует социальные сети для распространения своей пропаганды [Reporters Without Borders, 2012]. Потенциал для серых или черных операций влияния в социальных сетях огромно. Например, в Facebook около 83 миллионов поддельных пользователей [Sweney M., 2013], лайки и комментарии которых можно покупать [Singel R., 2012].
  • Когда деятельность по оказанию влияния координируется в более широком масштабе, она может создать ложное впечатление, что за определенным мнением стоит крупное массовое движение. Этому явлению, получившему название астротурфинг, уделяется большое внимание [Ratkiewicz J. et al, 2010]. Для астротурфинга (термин является производным от названия компании, производящей искусственную траву для стадионов) характерны следующие общие методы повышения значимости постов в Интернете:
  • Один человек контролирует несколько разных аккаунтов, чтобы создать впечатление, что несколько человек пишут на одну и ту же тему.
  • Используются эксклюзивные учетные записи, предназначенные для поддержки строго определенных постов.
  • Создается веб-страница и используется бот-сеть с несколькими учетными записями для размещения ссылок на нее с различными хэштегами и скремблируются ссылки с фиктивными параметрами, чтобы они не были идентичными и, следовательно, легко обнаруживались.
  • Используются боты для скоординированного подхода к популярным пользователям, чтобы они воспринимали сообщение как поступающее из нескольких разных источников, чтобы они сочли внедряемую информацию заслуживающей доверия и репоста.
  • Влияние через социальные сети также может быть достигнуто с помощью фейковых аккаунтов в более широком масштабе. В марте 2011 года The Guardian раскрыла федеральный контракт США с Ntrepid, раскрыв чертежи технической системы, позволяющей оператору контролировать действия десяти поддельных персонажей социальных сетей, снабженных достоверными данными, используя решения VPN, чтобы избежать обнаружения [Fielding N., Cobain I., 2011].

 Информирование

Определение: Передача информации или знаний.

  • Информация может передаваться через специальные веб-сайты с фильтуемым контентом. Например Твиттер - это еще один вектор информационных операций, используемый, Государственным департаментом США [Lichtenstein J. 2010].
  • Использование социальных сетей, включая Facebook, Twitter, предусмотрено для улучшения правительственной связи в чрезвычайных ситуациях, например, в случае стихийных бедствий [Artman H. et al., 2011].

 Упреждение

Определение: Лишение надежды на успех или силы действовать, чтобы упредить нежелательные действия целевой аудитории.

  • Правительства (особенно авторитарные) имеют в своем распоряжении ряд инструментов для создания препятствий для свободного доступа к информации, включая инфраструктурные и экономические барьеры для доступа, блокированию конкретных приложений или технологий, правовой, нормативный контроль и контроль собственности над провайдерами доступа к Интернету и мобильной связи.
  • Использование хакеров, взлома или распределенного отказа в обслуживании (DDOS-атаки) для атаки на веб-сайты противника. Китайские власти, вероятно, таким образом атакуют сайты правозащитных групп в стране и за рубежом [Kelly S., Cook S., 2011]. Такие атаки технически трудно аттрибутировать, что позволяет авторитарным правительствам отрицать свою причастность к подобным атакам.
  • Другой способ, известный в Беларуси, заключается в замедлении интернет-соединений (по заказу или путем атаки) до такой степени, что подключение к Сети становятся бесполезным. При этом власти отрицают свое участие и списывают все на технические проблемы с производительностью [Reporters Without Borders, 2012].
  • Отзывы пользователей, содержание которых считается оскорбительным, могут быть использованы как повод для удаления нежелательных материалов. Известно, что это работает на Facebook и YouTube в таких странах, как Китай, Египет, Эфиопия, Мексика и Тунис [Kelly S., Cook S., 2011]. Разновидностью механизма упреждения просмотра нежелательного контента является сообщение в поисковую систему (Google) о том, что целевой веб-сайт заражен вредоносным ПО. Если это систематически делается многими пользователями (например, через бот-сети), сайт будет заблокирован или удален из результатов поиска.
  • Альтернативный подход для предотвращения использования целевой аудиторией определенных ресурсов заключается в проникновении в списки рассылки, форумы и дискуссионные группы. Китайское правительство использовало уязвимости в почтовых протоколах для отправки ложных электронных писем между диссидентами, распространения дезинформации и создания разногласий между группами. Дискуссии о том, кто на самом деле является «агентом, нанятым Пекином», распространены на таких форумах, что препятствует полезной координации и приводит к предположению, что эти дискуссии как таковые на самом деле инициированы китайскими спецслужбами [Chase M. Mulvenon J., 2002]. Та же стратегия используется в США Департаментом по борьбе с потенциальными террористами путем "троллинга’ их форумов в Интернете. Концепция называется "Вирусный мир" и направлена на разрушение нарциссической и самодовольной среды, необходимой для радикализации на Интернет-форумах [Ackerman S.2012].

 Защита и Охрана

Определение: Прикрытие или защита от воздействия, повреждения или разрушения, чтобы уберечься от вреда, нападения, травмы или эксплуатации (манпуляции). Для поддержания статуса или целостности. Меры для защиты от шпионажа или захвата конфиденциального оборудования и информации.

  • Способ для правительства сохранить статус-кво информационного превосходства состоит в том, чтобы вытеснить альтернативные голоса путем повышения уровня шума. Например, группировка китайских троллей, известная под названием "Партия 50 центов" (имеется в виду оплата 50 центов за пост), которой поручено наводнить Интернет проправительственными комментариями, насчитывает более 40 000 человек [Reporters Without Borders, 2012].
  • Сторонники Асада применяли аналогичную тактику наводнения, заполняя стены Facebook повстанцев порочащими комментариями и используя ботов, чтобы заполнить хэштег #Сирия в Twitter не относящейся к делу информацией, чтобы вытеснить оппозицию из информационного поля [Qtiesh А., 2011].

 Отрицание и нейтрализация

Определение: Сделать неэффективным, недействительным или неспособным выполнять определенную задачу или функцию, чтобы противодействовать деятельности или ожидаемому эффекту.

  • Правительства по всему миру водят ограничения на контент, например, фильтрацию и блокировку веб-сайтов, другие формы цензуры, включая самоцензуру, и манипулирование контентом. Простым примером является южнокорейский блок северокорейских веб-сайтов, включая официальный Северокорейский аккаунт в Твиттере [Kelly S., Cook S., 2011]. Такой контроль контента может иметь место на четырех различных уровнях: магистральная сеть Интернета, поставщик интернет-услуг, институциональный уровень (университеты, правительственные учреждения, школы и т.д.) и компьютер конечного пользователя с помощью программ фильтрации. На более высоких уровнях более грубая стратегия заключается в блокировании IP-адресов или URL-адресов. Блокировка ключевых слов, которая требует непрерывной обработки содержимого трафика, является более сложной. На уровне конечного пользователя режим фильтрации китайских ключевых слов встроен в системы обмена мгновенными сообщениями, такие как TOM Skype и QQ [Kelly S., Cook S., 2011]. Глубокий пакет технология проверки (DPI) представляет собой новый шаг в управлении Интернетом, когда не только "заголовки’ пакетов данных (т. е. адресация информации) проверяются, но также и ее фактическое содержание
  • Автономный способ противостоять критике в блогосфере - это печатные СМИ: на Кубе правительственные газеты очерняют оппозиционных блогеров [Reporters Without Borders, 2012].
  • Нежелательным мнениям также можно противостоять в Интернете. «Фабрики троллей» подобные китайской «50-центовой партии», можно использовать не только как генератор информационного шума, описанный выше, но и как онлайн-агрессоров, преследующих тех, кто выражает нежелательные мнения. Таким образом, Таиланд использует военных для противодействия критике монархии в Интернете.
  • Взлом является более активной мерой для нейтрализации нежелательного контента. Таким образом, сирийские хакеры, выступающие за Асада, завладели блогом и аккаунтом в Twitter, принадлежащими агентству Рейтер, и использовали их для распространения ложных (а иногда и абсурдных) сообщений [Chirgwin R., 2013].

 Формирование

Определение: Определять или направлять ход событий. Изменять поведение,

подкрепляя желательные изменения вознаграждением, чтобы заставить соответствовать реакцию целевой аудитории определенной форме или образцу.

  • Одним из важных способов формирования восприятия целевой аудитории (и, следовательно, поведения) является манипулирование результатами поиска [Ratkiewicz J. et al., 2010]. Китай является показательным примером, где поисковые системы вынуждены корректировать результаты поиска в соответствии с критериями тех, кто находится у власти [Kelly S., Cook S., 2011]. Более грубый способ прекратить поиск по определенным темам - фильтрация на основе ключевых слов в URL [Zittrain J., Edelman B., 2003].
  • Китайские ученые исследуют и публикуют стратегии повышения рейтинга правительственных веб-сайтов в поисковых системах, изучая влияние ключевых слов, гиперссылок и т.д. [Cong Li., 2011].
  • Аналогичным способом формирования знаний людей является стратегическое редактирование Википедии – стратегия, доступная всем, включая правительства. Известные примеры влияния на контент Википедии включают участие правительства США [Oswald E.,2007] и Австралии [Moses А., 2007].
  • Более прямым способом формирования действий является своевременная подделка веб-страниц, связанная с конкретными событиями. Белорусские власти применили эту тактику, предоставив неправильные места для митингов оппозиции на почти идентичных клонах законных веб-сайтов, на которые пользователи перенаправлялись государственным провайдером Belpak [Kelly S., Cook S., 2011].

 Обнаружение (детекция)

Определение: Обнаружить или распознать существование, присутствие или факт вторжения в информационные системы.

  • В Сирии и Иране использовался фишинг имен пользователей и паролей к социальным сетям , а также о более сложные методы, связанные с поддельными сертификатами SSL [Reporters Without Borders, 2012].
  • Тунисские сотрудники службы безопасности под регулярно взламывали электронную почту и аккаунты активистов оппозиции в социальных сетях [Kelly S., Cook S., 2011]. Известно, что Китай использует мощную комбинацию фишинга и вредоносных программ для отслеживания тибетской оппозиции [Nagaraja S., Anderson R.,2009].
  • С июня 2012 года Google уведомляет пользователей Gmail и Chrome, если они “полагают, что злоумышленники, спонсируемые государством, могут попытаться скомпрометировать вашу учетную запись или компьютер” [Perlroth N.,2012].

Сдерживание

Определение: Отклонять, препятствовать или противодейествоать потенциальному или фактическому противнику или другой целевой аудитории предпринимать действия, угрожающие интересам.

  • Электронные письма ключевым лицам могут быть использованы для сдерживания или противодействия определенным действиям, способ, используемый обеими сторонами в войне в Косово 1999 года [Lungu A., 2001] и США против иракских официальных лиц в преддверии войны в 2003 году [Shanker T., Schmitt E., 2004]. В конфликте 2012 года между Израилем и ХАМАСОМ ЦАХАЛ использовал Twitter аналогичным образом доставляя фейковые сообщения как лидерам ХАМАСА, так и журналистам [Kershner I., Akram F.,2012].
  • Стимулы для самоцензуры могут быть созданы путем привлечения владельцев серверов или веб-сайтов к юридической ответственности за все содержимое, в том числе написанное другими лицами. Такая практика привела к тому, что китайские интернет-компании наняли несколько сотен тысяч цензоров для постоянного мониторинга сообщений в блогах, комментариев, видео и т.д. [Kelly S., Cook S., 2011]. В России гражданское и уголовное законодательство используется для ограничения нежелательного контента в Интернете благодаря федеральному законе "О противодействии экстремистской деятельности" [Rogoza J.,2012].
  • Правительственные учреждения США оказывают давление на интернет-провайдеров, чтобы они "добровольно’ закрывали веб-сайты, чтобы остановить финансирование терроризма [Jacobson M, 2010]. Следует подчеркнуть, что этот способ используется не только для того, чтобы избавиться от нежелательных материалов ex post, но и для подстрекательства к самоцензуре ex ante. Инициатива "Открытая сеть" отмечает, что этого можно достичь путем распространения убеждения (более или менее верного) что правительство следит за Интернетом [Open Net Initiative, 2012].
  • Аутсорсинг-цензура частными подрядчиками или организациями становится все более распространенным явлением, как в Китае, так и в других странах [Lagerkvist J., 2008].

 Способствование

Определение: Способствовать прогрессу, развитию или росту.

  • Электронные средства массовой информации могут использоваться для продвижения политики. Столкнувшись с антияпонскии митингами в апреле 2005 года китайское правительство разослало текстовые сообщения всем клиентам в сети China Mobile, заверяя получателей в том, что правительство управляет внешней политикой наиболее выгодным образом [Lagerkvist J., 2008].
  • Идеотейнмент - термин, для описания усилий Китая сделать официальную идеологию "крутой" в глазах следующего поколения молодежи [Lagerkvist J., 2008]. В китайском идиотейнменте используется “переплетение высокотехнологичных изображений, дизайнов и звуков популярной культуры Интернета и мобильных телефонов с тонкими идеологическими конструкциями, символами и националистически настроенными сообщениями убеждения”. Меры, принимаемые для цензуры Интернета, всегда описываются такими формулировками, как ”молодежь”, ”здоровье”, ”гигиена” и ”загрязнение” .
  • Более традиционным способом управления информационной средой и продвижения желаемых тем и сообщений являются государственные информационные агентства. После взрыва в 1999 году китайского посольства в Белграде, партийный рупор "Жэньминь жибао" создал сайт “Форум сильной страны” - националистический форум, который оказался популярным. 3 года спустя 5 миллионов юаней было использовано для создания пяти новых информационных и новостных агентств, каждое из которых имело тщательно разработанные веб-сайты [Lagerkvist J., 2008].
  • В Китае, используется три метода продвижения коммунистического режима, смешивающих информацию и пропаганду, а именно:
    • проекты электронного правительства,
    • государственные и муниципальные новостные порталы
    • информационные кампании.
  • Один из способов, который можно использовать в среде, обычно подвергающейся строгой цензуре, - это внезапная отмена цензуры для продвижения определенной темы. Вьетнам, в котором обычно действует строгий режим цензуры, в июне 2011 года разрешил антикитайские настроения в Facebook и координировал антикитайские митинги в Интернете [France24, 2011]. Отказ от цензуры в этом контексте также является своего рода поощрением.

 Онлайн дезинформация

Иностранные противники тайно используют информацию, чтобы влиять на мнение, обострить противоречия, усилить напряженность или просто создать достаточно информационного шума, чтобы вызвать сомнения во всех источниках информации. Эти цели достигаются тремя основными способами:

1.         Усиление дезинформацию (непреднамеренно ложной информации), уже существующей и циркулирующей в целевой среде

2.         Внедрение дезинформации (заведомо ложной информации, используемой в качестве оружия с целью причинения вреда)

3.         Использование правды (обнародование правдивой дискредитирующей информации для достижения разрушительной цели).

Одним из самых известных элементов боевого информационного воздействия является пропаганда. По соотношению долей правды и лжи пропаганда может быть белой, серой и черной. Открытая пропаганда проводится правительством или организацией, которая берет на себя ответственность за ее ведение. В условиях полицейских государств или по другим тактическим соображениям, пропаганда может распространяться скрытыми средствами, например, через агентов, распространяющих необходимую информацию.

Открытая пропаганда может быть правдивой или ложной. Поскольку эффект пропаганды прежде всего зависит от достоверности используемой информации, открытые источники, использующие ложь, быстро теряют всякую эффективность воздействия. Открытая пропаганда также известна как белая пропаганда, потому что ее источник берет на себяответственность за ее распространение. Серая пропаганда - это материал, который распространяется без указания источника. Серая пропаганда может быть как правдой, так и ложью. Черная пропаганда - это материал, созданный одним источником, который якобы берет информацию из другого источника. Чаще всего это ложная информация. Черная пропаганда может быть использованы для подрыва доверия к белому (правдивому) источнику путем распространения очевидной лжи под ярлыком ранее надежного источника. Черная пропаганда - если она вообще эффективна - быстро теряет эффективность,

если только целевая аудитория в силу особенностей национального менталитета ни особенно восприимчиво к слухам, манипуляциям и искажению фактов. Тем не менее, черная пропаганда может быть очень эффективной, если ее правильно спланировать. Например, если источники информации определят, что вторжение противника неизбежно, трансляция этого факта под эгидой противника устраняет всякую неожиданность и фальсифицирует все заявления захватчика о "справедливой" войне.

Для проведения информационных операций в Сети используются боты и тролли, а также веб-сайты, которые участвуют в «повествовательном отмывании» дезинформации. Иностранные спецслужбы и их доверенные лица, продвигают дезинформационные нарративы на целевую аудиторию через сети сайтов, которые координируют свои действия и «легитимизируют» дезиноформационный контент друг друга взаимными ссылками. Этот метод скрывает исходный иностранный источник контента (вводя читателя в заблуждение, заставляя поверить, что контент отражает подлинные мнения и события) и создает ложное восприятие достоверности из-за огромного количества сайтов, продвигающих одни и те же взгляды (также называемый «бустеризм» ). Эти информационные экосистемы могут увеличить охват зарубежных операций, поскольку сайты с большей читательской аудиторией могут подтолкнуть целевую аудиторию к посещению сайтов с меньшей видимостью и посещаемостью, содержащих неконтролируемую дезинформацию, которую бы удалили с более известных и крупных сайтов. Онлайн-платформы также могут служить компонентами скрытых операций влияния, выполняемых специалистами противника - размещением контента, который противник пытается внедрить в целевую аудиторию, либо полностью автономными операциями, часто с подстрекательскими заявлениями с целью посеять рознь и вызвать разногласие и поляризацию общества.

author 10

 

ЛИТЕРАТУРА

AAP-06 NATO Glossary Terms and Definitions, NSA, 29 April 2014, 2-P-10.

Ackerman S.. Newest U.S. Counterterrorism Strategy: Trolling. http://www.wired.com/dangerroom/2011/03/jihadis-next-online-buddycould-be-a-soldier/, July 2012. Wired, retrieved 18 January 2013.

Allied Joint Doctrine for Psychological Operations AJP-3.10.1(B), 2014, p. 1-2.

Antczak Z. The multinational division: is it viable in peace enforcement operations? U.S. Army War College, Pennsylvania 2005, p. 5.

American Psychiatric Association. (2013). Diagnostic and statistical manual of mental disorders (5th ed.). Washington, DC: Author.

Arquilla, J. (1999). Ethics and information warfare. In Z. Khalilzad, J. White, & A. Marsall (Eds.), Strategic appraisal: The changing role of information in warfare (pp. 379–401). Santa Monica, CA: Rand Corporation.

Artman H., Brynielsson J., Johansson B., Trnka J. Dialogical emergency management and strategic awareness in emergency communication. In Proceedings of the 8th International ISCRAM Conference, 2011.

Bargar A., Butkevics J., Pitts S., McCulloh I. Challenges and Opportunities to Counter Information Operations Through Social Network Analysis and Theory // 2019 11th International Conference on Cyber Conflict: Silent Battle. NATO CCD COE Publications, Tallinn - 2019.

Bar-Tal, D., & Halperin, E. (2013). The psychology of intractable conflicts: Eruption, escalation, and peacemaking. In L. Huddy, D. O. Sears, & J. S. Levy (Eds.), The Oxford handbook of political psychology (2nd ed., pp. 923–956). New York, NY: Oxford University Press.

Baumeister, R. F., Bratslavsky, E., Finkenauer, C., & Vohs, K. D. (2001). Bad is stronger than good. Review of General Psychology, 5(4), 323–370. doi:10.1037%2F1089-2680.5.4.323

Beauchamp-Mustafaga N. Cognitive Domain Operations: The PLA’s New Holistic Concept for Influence Operations // China brief, - 2019, Vol.19, Iss 16

Benigni M., Joseph K, Carley K. Online extremism and the communities that sustain it: Detecting the ISIS supporting community on Twitter // PloS one, vol. 12, no. 12, p. e0181405, 2017.

Breslau N. (2009). The epidemiology of trauma, PTSD, and other posttrauma disorders. Trauma, Violence, & Abuse, 10(3), 198–210.

Breznitz, S. (1983). The seven kinds of denial. In S. Breznitz (Ed.), The denial of stress (pp. 257–286). New York, NY: International Universities press.

Brookes A. US plans to ’fight the net’ revealed. ttp://news.bbc.co.uk/2/hi/americas/4655196.stm, January 2006. BBC, retrieved 18 January 2013.

Burton R. Disinformation in Taiwan and Cognitive Warfare,” Global Taiwan Brief , November 14, 2018, http://globaltaiwan.org/2018/11/vol-3-issue-22/ .

Buss, D. M. (1999). Evolutionary psychology: The new science of the mind. Boston, MA: Allyn and Bacon.

Butcher, J. N., & Williams, C. L. (2009). "Personality assessment with the mmpi-2: historical roots, international adaptations, and current challenges". Applied Psychology: Health and Well-Being. 1 (1): 105–135

Caldwell A. What do the MMPI scales fundamentally measure? Some hypotheses. // Caldwell report, University of California, 2000.

Cameron, C. D., & Payne, B. K. (2011). Escaping affect: How motivated emotion regulation creates insensitivity to mass suffering. Journal of Personality and Social Psychology, 100(1), 1–15. doi:10.1037/a0021643

Castro-Vale I, Severo M, Carvalho D, Mota-Cardoso R (2019-08-09). "Intergenerational transmission of war-related trauma assessed 40 years after exposure". Annals of General Psychiatry. 18 (1): 14

Chase M. Mulvenon J. You’ve got dissent!: Chinese dissident use of the Internet and Beijing’s counter-strategies. Number 1543. Rand Corporation, 2002.

Chengping Y., Wei H. The Main Contradictions and Countermeasures in Wartime Political Work // Journal of Political Work , November 2007.

Chirgwin R. Reuters suffers double hack. http://www.theregister.co.uk/2012/08/05/reuters_hacked/, August 2012. The Register, retrieved 18 January 2013.

Collings D., Rohozinski R. Bullets and Blogs: New media and the warfighter. United States Army War College, 2009.

Collins S. Mind Games, http://www.nato.int/docu/review/2003/Wake-Iraq/Mind-games/EN/index.htm, 12 .02.2017.

Cong Li. E-government website optimization based on search engine. In Artificial Intelligence, Management Science and Electronic Commerce (AIMSEC), 2011 2nd International Conference on, pages 6224 –6227, aug. 2011.

Daniels J. Cloaked websites: propaganda, cyber-racism and epistemology in the digital era. New Media & Society, 11(5):659–683, 2009.

DoD, Department of Defense Dictionary of Military and Associated Terms, Washington, D.C., - 2019.

Drabek, T. E. (1986). Human systems responses to disaster: An inventory of sociological find-ings. New York, NY: Springer.

European Commission High Level Group, A multi-dimensional approach to disinformation - Report of the independent High Level Group on fake news and online disinformation. Publications Office of the European Union, Belgium, 2018.

Fielding N., Cobain I. Revealed: US spy operation that manipulates social media. http://www.guardian.co.uk/technology/2011/mar/17/us-spy-operation-socialnetworks, March 2011. The Guardian, retrieved 18 January 2013.

FM 3-05.30. Psychological Operations. MCRP 3-40.6 Headquarters, Department of the Army. – 2005

Franke U. Information operations on the Internet FOI-R-3658-SE, ISSN 1650-1942, March 2013

Friedman H. Psychological Operation in Iraq: Operation Iraqi Freedom, 2003, https://www.psywar.org/content/opiraqifreedom, 04.02.2017.

Heuer, R. J. (1999). Psychology of intelligence analysis. Langley, VA: Central Intelligence Agency, Center for the study of intelligence.

Heuer, R. J. (1999). Psychology of intelligence analysis. Langley, VA: Central Intelligence Agency, Center for the study of intelligence.

Hongwei L. Revisiting the Essential Feature of Modern War // National Defense, May 2019.

Hosmer S. Psychological effects of. U.S. Air Operations in Four Wars 1941-1991: Lessons for U.S. Commanders, Santa Monica, California 1996, pp. 12 5-12 9.

Hoyle A., van den Berg H., Doosje B., Kitzen M. (2021) Grey matters: Advancing a psychological effects-based approach to countering malign information influence. New Perspectives 29:2, pages 144-164.

Huafeng Z. Seizing Mind Superiority in Future Wars // PLA Daily , June 16, 2014 http://www.81.cn/jwgd/2014-06/16/content_5961384.htm

Huddy, L. (2013). From group identity to political cohesion and commitment. In L. Huddy, D. O. Sears, & J. S. Levy (Eds.), The Oxford handbook of political psychology (2nd ed., pp. 923–956). New York, NY: Oxford University Press.

Huiyan L., Wu Х., Xianliang W., Shunliang M. Several thoughts on promoting the construction of cognitive domain operations equipment in the whole environment // Defense Technology Review, October 2018.

Hutchinson, W. (2006). Information warfare and deception. Informing Science, 9, 213–223. doi:10.28945/480

Internet enemies report 2012. Reporters Without Borders, March 2012.

Jacobson M. Terrorist financing and the internet. // Studies in Conflict & Terrorism, 33(4):353

Jacobson М. Tactical PSYOP Support to Task Force Eagle, The National Defense University, 1997, p. 194-195.

Jakobowitz, Sharon & Egan, Vincent. (2006). The Dark Triad and normal personality traits. Personality and Individual Differences. 40. 331-339. 10.1016/j.paid.2005.07.006.

Jenni, K., & Loewenstein, G. (1997). Explaining the identifiable victim effect. Journal of Risk and Uncertainty, 14(3), 235–257. doi:10.1023/A:1007740225484

Baumeister, R. F., Bratslavsky, E., Finkenauer, C., & Vohs, K. D. (2001). Bad is stronger than good. Review of General Psychology, 5(4), 323–370. doi:10.1037%2F1089-2680.5.4.323

Jiang B., Songyang L., Liang B., Xiaoyi G., Haitao L. The Research on Video Based Psychological Warfare and its Key Technology // Fire Control and Command Control, December 2011

Joint Publication JP-3-13.2 Military Operation Support Operations, Joint Chiefs of Staff,

Kelly S., Cook S. (eds.). Freedom on the net 2011: a global assessment of internet and digital media. Freedom House, 2011.

Kershner I., Akram F. Ferocious Israeli Assault on Gaza Kills a Leader of Hamas. http://www.nytimes.com/2012/11/15/world/middleeast/israeli-strike-in-gazakills-the-military-leader-of-hamas.html, November 212. NY Times, retrieved 19 January 2013.

Konnander, F. (2012). Psykologiska operationer: Oljan i COIN-maskineriet? [Psychological operations: The oil in the CION machinery]. Kungl Krigsvetenskapsakademiens Handlingar Och Tidskrift [The Royal Swedish Academy of War Sciences’ Proceedings and Journal], 2, 155–174.

Krane J. US units try to win Iraqi hearts and Minds, http://www.kvue.com/sharedcontent/iraq/military/060503cciraqhearts.8d028054.htm, 30 January 2017

Lagerkvist J. Internet Ideotainment in the PRC: national responses to cultural globalization. Journal of Contemporary China, 17(54):121–140, 2008.

Lichtenstein J. Digital Diplomacy. http://www.nytimes.com/2010/07/18/magazine/18web2-0-t.html?_r=3&, July 2010. NY Times, retrieved 18 January 2013.

Lundgren, J. (2013). The Nordics’ fear of the Russian bear-The Nordics’ threat perception of Russia’s military capacity as portrayed by media and the structural factors behind this picture (Master thesis). University of Gothenburg, Centre for European studies, Gothenburg.

Lungu A. War. com: The internet and psychological operations. Technical report, Naval War College, 2001.

Makhnin, V. L. (2013). Reflexive processes in military art: The historico-gnoseological aspect. Military Thought, 1, 31–46.

Marcellino W., Marcinek K. Pezard S. Mattews M. Detecting Malign or Subversive Information Efforts over Social Media. RAND Corporation, 2020

Mattsson, P. A. (2016). Warfare without armed confrontation: Russian psychological methods directed against Sweden. In K. Almqvist & M. Hessérus (Eds.), Finland and Sweden - Partners with a mutual interest? Stockholm: Axess Publishing AB.

McConnell, L. M. (2005, February 4). Redefining combined arms in today’s operational envi-ronment. Retrieved from Defense Technical Information Center: http://handle.dtic.mil/100.2/ADA507329

McLendon, J. W. (1994). Information warfare: Impact and concerns. Montgomery, AL: Air Command and Staff College.

Nagaraja S., Anderson R. The snooping dragon: socialmalware surveillance of the Tibetan movement, March 2009. Technical Report Number 746.

NATO, Allied Joint Doctrine for Information Operations. - NATO, Tallinn - 2009.

Operacje psychologiczne DD/3.10.1 (A), Sztab. Gen., Warszawa 2010, p. 10.

Paul Ch. Psychological Operations by Another Name Are Sweeter // RAND, 2010. Retrieved 9 November 2020. https://www.rand.org/blog/2010/07/psychological-operations-by-another-name-are-sweeter.html

Ratkiewicz J., Conover М., Meiss М., Gonçalves В., Patil S., Flammini A., Menczer F. Detecting and tracking the spread of astroturf memes in microblog streams. arXiv preprint arXiv:1011.3768, 2010.

Richardson, J. (2007). A critique of “Brainwashing” claims about new religious movements. In L. Dawson (Ed.), Cults and new religious movements: A reader (pp. 160–166). Oxford: Black-well Publishing.

Rieber, R., & Kelley, R. (1991). Substance and shadow: Images of the enemy. In R. Rieber (Ed.), The psychology of war and peace (pp. 3–38). New York, NY: Plenum Press.

Rogoza J. The Internet in Russia: The cradle of civil society, March 2012. OSW Commentary No 72.

Ruifa W., Yuyan L., Dongsheng L. Cognitive modeling and its implication for psychological warfare // Defense Technology Review, March 2018.

Shambaugh D. China’s Propaganda System: Institutions, Processes and Efficacy// The China Journal 57, 2007, pp. 25–58

Silverstein, B. (1989). Enemy images: The psychology of U.S. attitudes and cognitions regarding the Soviet Union. American Psychologist, 44(6), 903–913. doi:10.1037/0003-066X.44.6.903

Syrian regime unleashes online propaganda campaign. http://www.france24.com/en/20110613-2011-06-13-1140-wb-en-webnews, June 2011. France24, retrieved 18 January 2013.

Taillard, M., & Giscoppa, H. (2013). Psychology and modern warfare: Idea management in conflict and competition. Hampshire, UK: Palgrave Macmillan.

Tetlock, P. E., & McGuire, C., Jr. (1986). Cognitive perspectives on foreign policy. In S. Long (Ed.), Political behavior annual (Vol. 1, pp. 255–273). Boulder, CO: Westview.

Thomas T. Countering internet extremism. IO Sphere, Winter 2009:16–21, 2009.

Varol O., Ferrara E., Menczer F. Flammini А. Early detection of promoted campaigns on social media // EPJ Data Science, vol. 6, no. 1, p. 13, 2017.

Volkan, V. D. (1985). The need to have enemies and allies: A developmental approach. Political Psychology, 6(2), 219–247. doi:10.2307/3790902

Walker, F. W. (1996). Strategic conceptions for military operations. In F. L. Goldstein (Ed.), Psychological operations: Principles and case studies (pp. 17–24). Maxwell Air Force Base, AL: Air University Press.

Wallenius,C. (2001). Human adaptation to danger (Doctoral dissertation). Lund University, De-partment of Psychology, Lund.

Winter, C. (2015). The virtual ‘Caliphate’: Understanding Islamic State’s propaganda strategy. London: Quilliam Foundation.

Xueling Z., Huafeng Z. Mind Control Operations: New Model of Future Wars// PLA Daily , October 17, 2017, http://www.81.cn/jfjbmap/content/2017-10/17/content_189879.htm

Yuliang Z. The Science of Campaigns. Beijing, China: National Defense University Press,2006, pp. 80.

Yuzhen L., Wei L., Ruifa W., Wei L., Dongsheng L., Yingying Z. Characteristics and Key Technologies of the Common Domain for the Cognitive Domain // Defense Technology Review, April 2018.

Zaki, J. (2014). Empathy: A motivated account. Psychological Bulletin, 140(6), 1608–1647. doi:10.1037/a0037679

Zerfass, A., Verčič, D., Nothhaft, H., & Werder, K. P. (2018). Strategic communication: Defin-ing the field and its contribution to research and practice. International Journal of Strategic Communication, 12(4), 487–505. doi:10.1080/1553118X.2018.1493485v

Zimbardo, P. G. (2007). The Lucifer effect: Understanding how good people turn evil. New York, NY: Random House.

Zittrain J., Edelman B. Internet filtering in China // Internet Computing, IEEE, 7(2):70–77, 2003.

Андрей Демкин

Статьи по теме:

О сайте

Вы находитесь на сайте врача и психолога Андрея Демкина, посвященном вопросам психологической помощи, психодиагностики и профессионально-психологического отбора и аттестации (оценке) персонала. Для работы с онлайн психодиагностической плаформой перейдите по сслылке: https://dmnsys.ru/