Das Ansehen der USA in der Welt hat sich einer internationalen Umfrage zufolge seit dem Amtsantritt von US-Präsident Barack Obama spürbar gebessert. Nicht nur die Mehrheit der Deutschen hat ein positives Bild von Amerika, sogar die muslimischen Länder sind freundlicher gestimmt. Nur ein Land fällt aus dem Rahmen.