El continente africano quedó por mucho tiempo bajo el dominio de los europeos, quienes aprovecharon su superioridad militar, política y económica para establecerse y explotar los diferentes recursos que el territorio africano les brindaba. Dicha conquista causó un grave daño a la sociedad y cultura africana. Sin embargo, gracias a las guerras mundiales y aprovechando la debilidad de los países europeos, las colonias africanas declararon su independencia a mediados del siglo XX.