
Al margen de las conocidas utilidades de hardenning de sistemas UNIX/Linux como son
CISscan,
Titan,
Jassp,
Yassp,
Bastille y demás citadas en la presentación de
Seguridad en OpenSolaris; las cuales desde el punto de vista de auditoría permiten conocer a un nivel de test interno como de "seguro" (mejor dicho inseguro) se encuentra el sistema a bastionar... posteriormente siempre podemos recurrir al test externo con herramientas como
Nmap (la version 5 es una maravilla ;-),
Nemesis,
AutoScan,
Superscan,
Zenmap,
NetGrok,
OpenVAS,
Nessus (desde la version 3 aunque ya no goza de licencia GPL, aunque en la version 4 incorpora mejoras realmente potentes).

Todo esto enlaza directamente con las distintas etapas de un
test de penetración de seguridad IT (
Planificación,
Reconocimiento,
Descubrimiento y
Ataque) el cual proporciona un buen inventario de los activos de información decubiertos de igual modo que sus vulnerabilidades en el momento de la realización de la prueba.

Una vez alcanzado esta primera fase de identificación y escaneo, posteriormente es posible centrar el tiro en un determinado servicio (como por ejemplo el servicio web: protocolo http (puerto tcp 80) y protocolo https (puerto tco 443)) a través de otras utilidades mas concretas como
nikto o su version grafica
Wikto y asi sucesivamente con el objetivo de identificar
vulnerabilidades facilmente trasformables en
amenazas debido a la existencia y ejecución de exploits que compromentan dicho activo de información.

El siguiente paso deberia ser medir el
riesgo
que supondria explotar estas
vulnerabilidades inherentes a los sistemas de información, convirtiendose entonces en
amenazas de los mismos. El propósito es poder cuantificar la probabilidad de su ocurrencia al igual que su posible impacto. En una fase posterior finalmente deberiamos ser capaces de materializar todas las
salvaguardas proactivas que lleguen a evitar en mayor o en menos medida el
riesgo de exposición a esas
amenazas de cada uno de los activos descubiertos, de igual modo que articular las
contramedidas necesarias siempre que sea posible mitigar dicho
riesgo de una forma mas reactiva.
No hay comentarios:
Publicar un comentario