반응형 구글검색대응방안1 구글 검색 대응 방안(how to avoid the google seraching robot) 이번 장에서는 구글의 고급연산자 검색에서 노출 위험이 있는 개인정보나 중요 페이지 노출 대응 방안을 설명하고자 한다. 구글은 단순한 검색 뿐만아니라, 고급 연산자 검색을 통하여 pdf,word. jpg 등의 확장자 검색은 물론이고 URL, Protocol 까지의 검색도 가능하다. ☞전산쟁이 소소한 블로그 자료 참조 이러한 검색 로봇으로부터 웹사이트 전부나 특정 부분 접근을 제한하는 방법에 아래 2가지 방법을 알아보자. 1. robots.txt 'robots.txt'는 'robots'txt 프로토콜' 이나 '로봇 제외 표준'이라고 부르는데, 웹 스파이더나 검색 로봇(웹 로봇)으로부터 웹 사이트 전부나 특정 부분 접근을 제한한다. HOW? 'robots'txt'가 효력을 가지려면 URL의 최상위 공간에 위치.. 2013. 4. 24. 이전 1 다음 반응형