Web Enumeration

Enumeración de directorios/archivos

GoBuster es una herramienta versátil que permite realizar ataques de fuerza bruta de DNS, vhost y directorios. La herramienta tiene funciones adicionales, como la enumeración de buckets públicos de AWS S3. Para los fines de este módulo, nos interesan los modos de ataque de fuerza bruta de directorios (y archivos) especificados con el modificador dir. Ejecutemos un escaneo simple usando la dirb common.txtlista de palabras.

gobuster dir -u http://IP/ -w /usr/share/dirb/wordlists/common.txt

Enumeración de subdominios DNS

También puede haber recursos esenciales alojados en subdominios, como paneles de administración o aplicaciones con funciones adicionales que podrían explotarse. Podemos usar GoBusterpara enumerar los subdominios disponibles de un dominio determinado usando la dnsbandera para especificar el modo DNS. Primero, clonemos el repositorio de GitHub SecLists , que contiene muchas listas útiles para fuzzing y explotación:

gobuster dns -d inlanefreight.com -w /usr/share/SecLists/Discovery/DNS/namelist.txt

Encabezados de servidores web

 curl -IL https://www.inlanefreight.com
  • EyeWitness es una herramienta que captura pantallas de servicios web, RDP y VNC, generando un informe HTML para revisión.

  1. Instalación:

    sudo apt-get install eyewitness
  2. Capturar pantallas de URLs:

    eyewitness --web -f urls.txt -d /ruta/al/reporte/
  3. Capturar pantallas desde un escaneo de Nmap:

    eyewitness --web -x nmap_scan.xml -d /ruta/al/reporte/
  4. Ver el informe:

    firefox /ruta/al/reporte/index.html
  • Whatweb es una herramienta útil y contiene muchas funciones para automatizar la enumeración de aplicaciones web en una red.

whatweb IP
whatweb --no-errors IP/24
  • Certificados SSL/TLS son otra fuente de información potencialmente valiosa si se utiliza HTTPS. Al buscar https://10.10.10.121/y ver el certificado se revelan los siguientes detalles, incluida la dirección de correo electrónico y el nombre de la empresa. Estos podrían usarse para realizar un ataque de phishing si esto está dentro del alcance de una evaluación.

  • Robots.txt Es habitual que los sitios web contengan un robots.txtarchivo cuyo propósito es indicar a los rastreadores web de los motores de búsqueda, como Googlebot, qué recursos pueden acceder y cuáles no para indexar. El robots.txtarchivo puede proporcionar información valiosa, como la ubicación de archivos privados y páginas de administración. En este caso, vemos que el robots.txtarchivo contiene dos entradas no permitidas.

  • Código fuente Hacer clic en [CTRL + U]para abrir la ventana del código fuente en un navegador.

Last updated