Colonialismo

Alla fine del 18esimo secolo si diffuse il colonialismo che si resse su un'ideologia razzista: l'uomo bianco era il naturale padrone del mondo. In quegli anni, in tanti giardini zoologici europei, accanto agli animali, si esponevano, in recinti chiusi, uomini e donne di altri continenti, considerati esseri inferiori e vicini, nella scala evolutiva, alle scimmie.
L' Europa considerò tale disuguaglianza scontata e naturale.
Il colonialismo si diffuse sempre di più, e le varie potenze (soprattutto quelle europee) assunsero numerosi possedimenti d'oltremare, e vari territori dell'Africa (in particolar modo l'Algeria, il Marocco, la Tunisia, la Libia e l'Egitto).
In realtà, la storia dell'Africa è stata da sempre caratterizzata da questo fenomeno, infatti gli antichi greci e romani fondarono quì le prime colonie, per lo sfruttamento e il controllo di quei territori.
Successivamente seguirono gli arabi e i turchi, e addirittura le potenze europee.
Ma nella seconda metà del XX secolo, le colonie riuscirono a conquistare l'indipendenza, anche se non sempre in maniera pacifica.