![]() | Главное | Политика | Экономика | Общество | Культура | Происшествия | Шоу-бизнес | Спорт | Технологии |
![]() |
![]()
Новости шоу-бизнесаПодпишитесь на нашу рассылку Наш партнёрЖенская сеть myJulia.ru
|
![]() |
Причиной утечки конфиденциальной информации стал человеческий фактор27.7.2011 15:52 ![]() Причиной попадания данных пользователей различных интернет-сервисов в поисковую выдачу является человеческий фактор. Прежде всего это ошибки разработчиков и администраторов сайтов. Об этом сообщает РИА Новости опрошенные эксперты. Напомним, что за минувшие десять дней в рунете произошли сразу три крупных утечки информации через поисковые системы. 18 июля в выдачу популярных поисковиков, в частности, «Яндекса», попали тексты SMS, отправленные с сайта компании «МегаФон» и номера телефонов получателей. Через неделю в поисковой выдаче были обнаружены ссылки на страницы со статусами заказов в различных интернет-магазинах. На этот раз в открытый доступ попали электронные адреса покупателей, перечень заказанных товаров, сумма покупки, адрес доставки и IP-адрес устройства, с которого был сделан заказ. По данным Роскомнадзора, были скомпрометированы клиенты более чем 80 интернет-магазинов. Вчера в поисковой выдаче оказались электронные железнодорожные билеты с датами, номерами рейсов, именами пассажиров. Если сведения о проездных документах подлинные, это, как и в случае с публикацией информации о клиентах интернет-магазинов, означает утечку персональных данных. В пресс-службе «Яндекса» сообщали, что первые две утечки связаны либо с отсутствием, либо с некорректным использованием на сайтах файла robots.txt, который содержит описание правил индексирования для поисковых роботов. По словам специалиста по компьютерной криминалистике Group-IB Сергея Никитина, последние крупные утечки произошли по двум причинам. «Во-первых, страницы находились в публичном, т.е. открытом, доступе. Во-вторых, не было верно задано правило для поисковых роботов: не индексировать данные страницы», - рассказал Никитин. Эксперт также сообщил, что при анализе сайтов, данные с которых попали в интернет, специалисты Group IB выяснили, что на некоторых ресурсах файл robots.txt был вообще не заполнен. «Администраторы этих сайтов не предпринимали никаких действий по ограничению доступа к веб-страницам», - отмечает Никитин.
Добавить комментарийДля добавления комментария заполните все поля формы:Смотрите еще:
|
![]() |
![]() Тайны дняПоиск
ПопулярноеКулинарные рецепты на Поваренке |
![]() |
![]() | Главное | Политика | Экономика | Общество | Культура | Происшествия | Шоу-бизнес | Спорт | Технологии |
![]() | ![]() | ![]() | ©2008 Интерновости.Ру, проект группы «МедиаФорт» Редакция сайта: info@internovosti.ru. Общие и административные вопросы: info@mediafort.ru Информация на сайте для лиц старше 18 лет. ![]() Свидетельство о регистрации СМИ Эл №ФС77-32298 |
| ![]() |