Deutsche haben wieder mehr Vertrauen in die USA
n-tv
Seit Joe Biden im Weißen Haus sitzt, hat sich bei den Deutschen das Bild der Vereinigten Staaten sehr deutlich verbessert. Aber es bleiben Zweifel an den USA.
Vor einem Jahr wählten die USA einen Präsidenten, sie entschieden sich für den Demokraten Joe Biden und gegen eine weitere Amtszeit des Republikaners Donald Trump. Der hatte die internationalen Beziehungen seines Landes gehörig durcheinandergebracht - und unter Deutschen das Bild der Vereinigten Staaten dramatisch verschlechtert. Doch unter Biden hat sich die Stimmung wieder deutlich verbessert, wie eine umfassende Umfrage von Pew Research und der deutschen Körber-Stiftung zeigt.
Im vergangenen Jahr hielten demnach nur 18 Prozent der Deutschen die Beziehung zu den USA für gut. Inzwischen antworten entsprechend 71 Prozent der Befragten, eine Verbesserung von mehr als 50 Punkten. Auf der anderen Seite des Atlantiks sagen das Gleiche 85 Prozent, eine Verbesserung im Vergleich zu den 74 Prozent im Jahr 2020. Auch hält nun die Mehrheit der Deutschen die Vereinigten Staaten für den wichtigsten außenpolitischen Partner (44 Prozent). Als Trump noch im Weißen Haus saß, hatten die meisten Frankreich genannt.