Me pareció interesante y lo busqué
Cita:
Iniciado por Wikipedia Alemania: el término Alemania, proviene del germánico que significa ‘tierra del término de todos los hombres’. La palabra en alemán, Deutschland deriva de ‘tierra de la gente’. Mientras Germania (del latín ‘al-gairm’), era un grito de guerra de los antiguos pueblos del norte del Imperio Romano.
http://es.wikipedia.org/w/index.php?...es&redirect=no
Saludos.