본문 바로가기
워게임/wechall

[wechall challenge] Training: WWW-robots

by B T Y 2019. 7. 9.
반응형

[wechall challenge] Training: WWW-robots

 

 

 

WWW-Robots.rtf
3.40MB

 

- Explanation -

 

 

WWW-Robots 문제에서는 robots.txt 파일에서 왜 취약점이 일어날 수 있는지를 알려주려고 하는 문제인 것 같다. robots.txt 파일은 웹사이트에서 웹 크롤러와 같은 로봇들의 접근을 제어하기 위한 규약 파일이다. 보통 웹사이트들이 많은 노출을 원하기 때문에 따로 robots.txt 파일을 이용해서 접근을 막을 일이 없지만, 서버의 트래픽이 한정 됐거나 검색엔진에 노출을 원하지 않는 경우 사용한다.

robots.txt는 웹사이트의 최상이 경로인 루트 경로에 있기 때문에 사이트명 뒤에 /robots.txt를 입력하게 되면 해당 파일에 접근이 가능하다. 이러한 이유 때문에 해당 파일에 적힌 디렉토리 경로가 노출 되면서 해당 디렉토리에 중요한 정보가 있거나 한다면, 이러한 점이 하나의 취약점이 되기도 한다.

wechall의 robots.txt 파일의 위치인 www.wechall.net/robots.txt로 접근했다.

 

위와 같은 내용들이 나와있었는데 언뜻보면 별다를것이 없어보이지만, 첫번째 접근 제어 형식에 Diallow에 대한 내용을 보게 되면 모든 웹 크롤러(로봇)들에 대해서 TOPS3CR3T이라는 곳에 대한 접근을 차단하고 있다. 해당 위치에 정말로 엄청난 비밀 정보가 있는건 아니겠지만, 만일 TOPS3CR3T이라는 파일에 정말로 중요한 정보가 있었다면 해당 디렉토리의 위치가 공격자에게 그대로 노출 될 수 있었다라고 가설을 세워본다면 충분히 취약점이라고 볼 수 있다.

그래서 공격자의 입장이라고 생각하고 www.wechall.net/challenge/training/www/robots/T0PS3CR3T 디렉토리로 접근을 해봤다.

 

여기서는 특별한 정보는 없이 그대로 문제가 풀렸지만, 만일 중요한 정보가 있었다면 나는 바로 그 정보를 획득하거나 해당 정보를 기점으로 또 다른 취약점을 생각해 낼수 있었을 것이라고 본다.


※ robots.txt 파일 형식


User-agent: 제어할 로봇의 User-Agent
Allow: 접근 허가할 특정 디렉토리 ( /top/secert/secret1 )

User-agent: 제어할 로봇의 User-Agent
Disallow: 접근 차단할 특정 디렉토리 ( /top/secret/secret2 )

 


- 모든 문서에 대해 접근 허가


User-agent: *
Allow: /

 


- 모든 문서에 대해 접근 차단

 

User-agent: *
Disallow: /

 

 

 

반응형

댓글