qu'est-ce que ca veut dire desertification
Français
hajar2004
Question
qu'est-ce que ca veut dire desertification
1 Réponse
-
1. Réponse Pikachu972
Bonjour ,
Le mot " désertification " est un phénomène naturel ou non qui a des origines climatiques ou les conséquences des activités humaines . Dégradation des terres de type désertique . Bref c'est comme la sécheresse .
Le mot " dramatique " , est plutôt lié au théâtre . C'est des dangers , des conséquences graves tragiques et terribles .