본문 바로가기
반응형

robots.txt2

구글 해킹 방어 기법 구글 해킹 'Google Dork' 라고 불리는 '구글 해킹'은 구글 자체를 해킹하는 것이 아니라, 구글 검색(연산자 검색 등)을 활용한 해킹 방법을 말한다. 해킹 단계에서 가장 중요한 것은 정보수집인데, 어떠한 정보라도 타깃 사이트에 해당 되는 것이라면 최대한 많은 정보를 수집하는 것을 목적으로 한다. 단 한줄의 코드나 1바이트의 실수만으로도 메인 시스템 전체가 해킹될 수 있기 때문이다. 그러므로 가능한 한 많은 정보를 수집하는 것은 곧 공격자의 입장에서는 공격할 포인트가 많아진다는 것을 의미한다. 이러한 정보수집의 절차에서 구글 해킹은 타겟 사이트에 대한 관리자 페이지 등 많은 정보를 수집하는 데 도움을 주고, 심지어 검색만으로 기밀문서나 개인정보파일이 노출되는 경우도 아직까지 발생하고 있다. 구글 .. 2015. 8. 29.
구글 검색 대응 방안(how to avoid the google seraching robot) 이번 장에서는 구글의 고급연산자 검색에서 노출 위험이 있는 개인정보나 중요 페이지 노출 대응 방안을 설명하고자 한다. 구글은 단순한 검색 뿐만아니라, 고급 연산자 검색을 통하여 pdf,word. jpg 등의 확장자 검색은 물론이고 URL, Protocol 까지의 검색도 가능하다. ☞전산쟁이 소소한 블로그 자료 참조 이러한 검색 로봇으로부터 웹사이트 전부나 특정 부분 접근을 제한하는 방법에 아래 2가지 방법을 알아보자. 1. robots.txt 'robots.txt'는 'robots'txt 프로토콜' 이나 '로봇 제외 표준'이라고 부르는데, 웹 스파이더나 검색 로봇(웹 로봇)으로부터 웹 사이트 전부나 특정 부분 접근을 제한한다. HOW? 'robots'txt'가 효력을 가지려면 URL의 최상위 공간에 위치.. 2013. 4. 24.
반응형