Végétarisme aux États-Unis
De Wikipedia, l'encyclopédie encyclopedia
Le végétarisme est une pratique alimentaire qui tend progressivement à prendre de l'importance aux États-Unis.
Cet article est une ébauche concernant le végétarisme.
Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations du projet végétarisme.