Colonialismo

Alla fine del 18esimo secolo si diffuse il colonialismo che si resse su un'ideologia razzista: l'uomo bianco era il naturale padrone del mondo. In quegli anni, in tanti giardini zoologici europei, accanto agli animali, si esponevano, in recinti chiusi, uomini e donne di altri continenti, considerati esseri inferiori e vicini, nella scala evolutiva, alle scimmie.

 L' Europa considerò tale disuguaglianza scontata e naturale. 

Il colonialismo si diffuse sempre di più, e le varie potenze (soprattutto quelle europee) assunsero numerosi possedimenti d'oltremare, e vari territori dell'Africa (in particolar modo l'Algeria, il Marocco, la Tunisia, la Libia e l'Egitto).

In realtà, la storia dell'Africa è stata da sempre caratterizzata da questo fenomeno, infatti gli antichi greci e romani fondarono quì le prime colonie, per lo sfruttamento e il controllo di quei territori. 

Successivamente seguirono gli arabi e i turchi, e addirittura le potenze europee.

Ma nella seconda metà del XX secolo, le colonie riuscirono a conquistare l'indipendenza, anche se non sempre in maniera pacifica.

Crea il tuo sito web gratis! Questo sito è stato creato con Webnode. Crea il tuo sito gratuito oggi stesso! Inizia