¿Como nacio el termino?
Las Ciencias de la Tierra son muy importantes en nuestra
vida, dado que constituyen una herramienta para planear una explotación
racional de los recursos naturales debido a que los geocientíficos utilizan sus
conocimientos para el hallazgo de fuentes de agua potable, así como también en
la exploración de nuevos yacimientos de petróleo y gas natural, carbón y
metales así como los minerales y nutrientes que se utilizan en los campos de
cultivos, y en la búsqueda de los materiales que se necesitan para construir
las edificaciones.
También es muy importante para poder comprender y conocer
nuestro origen y hábitat, las variaciones climáticas, las causas que originan
los fenómenos naturales que afectan y satisfacen las necesidades del ser humano
y así cuidarla como nuestro más imprescindible recurso natural; y como la
sociedad influye en la naturaleza con sus acciones. Igualmente, las ciencias de
la Tierra son la forma de entender los procesos naturales que han amenazado la
vida del hombre, y su estudio está ligado a la prevención de riesgos sísmicos,
meteorológicos y volcánicos.
Por otro lado esta ciencia nos instruye sobre las relaciones
del planeta con otros cuerpos del sistema solar. Y lo que está relacionado con
el conocimiento de la dinámica litosfera-atmósfera-hidrosfera-biosfera, de la
tectónica global y del equilibrio dinámico del Planeta.
También es importante por que las ciencias de la Tierra
suministran una sólida base para muchas carreras profesionales, facilitando el
entendimiento de los diversos ambientes y procesos naturales que influyen sobre
las actividades humanas.
Comentarios
Publicar un comentario