Germany World

Afghanistan: Taliban fordern von Deutschland Anerkennung und finanzielle Hilfen

Die Taliban haben Afghanistan im Handstreich übernommen, nun formen die Islamisten ihre Regierung – und hoffen auf Unterstützung vom verhassten Westen. Den Deutschen vergebe man ihre Nähe zu den USA, sagte ein Sprecher.