Unternehmen müssen Profit machen. Punkt. Das ist ihre Aufgabe, ja, ihre Verantwortung. Denn sie sollen am Ende des Monats Gehälter bezahlen und fortbestehen. Deshalb verstehe ich nicht, warum das Wort „Profit“ im Deutschen nach wie vor negativ konnotiert ist. Wenn ich erfolgreich sein will, dann muss ich eben auch mehr einnehmen als ausgeben. Deutschland ist…