Kolonialismus ist die Herrschaft einer Kolonialmacht mit eigener kultureller Identität und Gesellschaft über ein Kolonialvolk.
Im beginnenenden 20. Jahrhundert war dieser Kolonialismus sehr ausgeprägt in Afrika. Deutsche, Briten und Franzosen teilten sich den Kontinent auf und pressten die Länder aus.