Новости Днепра


Новости Днепра и Украины

К 2030 году киберпреступления будут совершать роботы

23 мая
14:35 2021

К 2030 году киберпреступления будут совершаться с помощью «разумных» самообучающихся компьютерных программ, противостоять которым чрезвычайно сложно. Об этом профессор Оксфордского университета Виктория Байнс (Victoria Baines) и специалист ИБ-компании Trend Micro Рик Фергюсон (Rik Ferguson) сообщили на конференции RSA, проходившей на этой недели.

Подробно изучив существующие тенденции, Байнс и Фергюсон пришли к выводу, что в ближайшем будущем человечество станет еще более зависимым от проводных (и беспроводных) технологий, и киберпреступники быстро к этому приспособятся. В богатых странах, таких как США и Великобритания, люди все больше будут полагаться на носимые гаджеты для мониторинга состояния здоровья и оставления планов питания, а устройства «умного дома» будут коммуницировать между собой и координировать расписания своих пользователей.

Из-за возможности в любой момент мгновенно получить доступ к мировой базе знаний ученики школ больше не смогут запоминать факты и цифры, и, словно в эпизоде «Черного зеркала», для поддержания личности человека «живой» в соцсетях после его смерти будет использоваться искусственный интеллект.

Согласно прогнозам исследователей, борьба с киберпреступностью повлечет за собой борьбу с беспощадными, умными и адаптивными роботами. Поскольку повторяющиеся задачи станут более автоматизированными, киберпреступники позволят компьютерным программам проводить разведку для поиска новых жертв.

«Все организации и слои общества будут использовать инструменты на базе искусственного интеллекта. То же самое касается злоумышленников, будь то отдельные лица, преступные предприятия или национальные государства», — сообщается в отчете исследователей.

Правда, как отметили авторы исследования, описанные ими события не обязательно будут происходить во всем мире, а только в некоторых его частях.

Поскольку к 2030 году быт будет во всем полагаться на технологии, все аспекты жизни могут быть скомпрометированы, что в свою очередь может привести к человеческим жертвам. Преступники смогут менять состав лекарств, автоматически доставляемые медицинскими имплантатами, модифицировать информацию, поступающую в интеллектуальные контактные линзы или нейронные имплантаты, и даже перепрограммировать навигационные функции автомобилей. Государства будут использовать искусственный интеллект, чтобы защищаться и нападать на других.

Кибератаки будут связаны с потерей людей, а не данных. К 2030 году государства начнут атаковать друг друга в киберпространстве по ошибке и без вмешательства человека. Вредоносное ПО научится новым приемам и сможет само приспосабливается к новым ситуациям. Алгоритмы, а не люди, будут проводить атаки с использованием социальной инженерии, участвуя в online-разговорах с потенциальными жертвами, чтобы выманивать у них деньги или ценную информацию.

Промышленность будет настолько автоматизирована, что практика использования вредоносных программ-шифровальщиков устареет. Вместо этого преступники начнут взламывать процессы компании и угрожать нарушить ее работу, если им не заплатят выкуп.

Ботнеты будут вторгаться в смарт устройства в офисах компании, чтобы запускать атаки изнутри.

Дипфейки начнут вторгаться в рабочие телеконференции, поэтому никогда нельзя будет с уверенностью сказать, является ли лицо на другом конце роботом или реальным человеком. Между тем, похитители личных данных действительно украдут личности пользователей с помощью огромного количества доступной информации о них и создадут аватары, которые займут их место в социальных сетях и на деловых встречах в интернете.

Хотя Бейнс и Фергюсон не представили никаких средств защиты для противодействия киберпреступности в этом «дивном новом мире», по их словам, у человечества еще «есть немного времени, чтобы подготовиться».

«Можно наметить эволюцию киберпреступности. Неопределенность больше не является причиной отсутствия готовности», — заявили исследователи.

Источник: securitylab.ru

Статьи по теме

0 Комментариев

Хотите быть первым?

Еще никто не комментировал данный материал.

Написать комментарий

Комментировать