robots.txt 란?
robots.txt 는 문서파일로써 검색로봇의 길안내 부분을 설정하는 문서입니다
robots.txt 는 사이트의 루트 디렉토리에 업로드하고 사이트가 검색엔진에 수록되는 도움의 역활을 합니다
사이트에서 검색로봇은 루트폴더에 위치한 robots.txt 파일을 확인한 후 robots.txt 파일이 존재할경우
robots.txt 파일의안내에 따라 가지만 없을경우 링크추적으로 사이트의 정보를 수집한다
그러므로 robots.txt 파일은 사이트의 루트폴더에 업로드해야 합니다
robots.txt 의 작성 양식은보통 아래와 같습니다
#Robots.txt file from http://www.test.com
#Sitemap: http://www.test.com/Sitemap.xml
User-agent: *
Disallow: /Action1/
Disallow: /d/
Disallow: /e/admin/
Disallow: /e/class/
Disallow: /e/data/
Disallow: /e/enews/
Disallow: /e/tool/gfen/
Disallow: /e/update/
위의 양식에는 모든 검색로봇을 환영하고 8개의 무시항이 표시되어있습니다
여기서 # 부호는 사이트의 정보설명이며
User-agent: 의 뒤에는 로봇의 이름을 작성합니다
위 예제는 * 은 모든 로봇을 뜻합니다
Disallow: 는 무시 대상을 뜻합니다
모든 로봇 허용 / 무시대상 없음
User-agent: *
Disallow:
또는 내용이 없는 robots.txt 파일을 업로드 하기도 합니다
모든 로봇 방문 금지
User-agent: *
Disallow: /
모든 로봇 허용 / 경로지정은(수집 금지 폴더가 존재할 경우)
User-agent: *
Disallow: /Action1/
Disallow: /d/
Action1 폴더와 d 폴더는 무시하라는 뜻입니다.
지정한 검색로봇만 수집금지
User-agent: Crawler
Disallow: /
모든로봇은 허용하나 Crawler만 금지
지정한 검색로봇만 허용
User-agent: Crawler
Disallow:
User-agent: *
Disallow: /
모든 로봇금지하지만 Crawler만 허용
'study > Web' 카테고리의 다른 글
.htaccess 파일 수정으로 도메인 연결 바꾸기 (0) | 2019.06.11 |
---|---|
티스토리에 소스코드 삽입 Syntax Highlighter 관련 (0) | 2016.07.14 |
robots meta 메타태그 사용 / 활용 방법 (0) | 2015.11.11 |
반응형 웹디자인 위한 css 자동 프리픽스 사이트 (0) | 2014.02.04 |