평소에 버그바운티나 테스팅 시 BurpSuite에서 주로 테스팅을 진행합니다. Burp에서의 spider 기능과 직접 돌아다니는게 좋긴하지만, 때론 외부 크롤러의 도움이 필요할때가 있습니다. (특히 waybackmachine을 사용할땐요)
Today I'm going to share a tip that I use often.
오늘은 제가 자주 사용하는 팁을 하나 공유하려고 합니다.
TL;DR
~/go/bin/gospider -s {YOUR-TARGET-URL} -a -o out ; cat out/* | grep "url\|form" | cut -d " " -f5 | sort -u > hosts ; proxychains4 ~/go/bin/meg -d 1000 -v /
Prepared beforehand
Install tools
go get -u github.com/tomnomnom/meg
go get -u github.com/jaeles-project/gospider
# macos
brew insatll proxychains4
# linux
apt-get install proxychains4
Set proxychain4
$ vim /usr/local/etc/proxychains.conf #your config file
...
http 127.0.0.1 8080
# your burp or zap port
Start!
Crawling and get other source(waybackurl, etc) lightly through the gospider.gospider를 통해 가볍게 크롤링 및 waybackurl 등을 가져옵니다.
$ ~/go/bin/gospider -s https://store.line.me -a -o out
Find only the result of the
form
, url
from gospider because there are many normal url patterns. and remove duplicated. gospider의 결과 중
form
, url
이 정상적인 url 패턴이 많기 때문에 해당 내용만 중복 제거하여 뽑아냅니다.$ cat out/* | grep "url\|form" | cut -d " " -f5 | sort -u
# copy output and paste 'hosts' file
(위 출력 결과를 hosts 파일로 저장합시다, meg를 위해!)
Insert data into burpsuite using proxychain and meg.
proxychain과 meg를 이용해 burpsuite로 데이터를 넣어줍니다.
$ proxychains4 ~/go/bin/meg -d 1000 -v /
Video
HAHWULSecurity engineer, Gopher and H4cker! |
0 개의 댓글:
Post a Comment