07.06.12007, 23:33
Impfungen bringen sehr wohl etwas... Da muss man aber selber mal um die Ecke denken : ), was genau sie bringen. Ich habe sogar schon erlebt, dass die Pharma-Mixer Eltern Angst damit machen wollen, dass Kinder ohne bestimmte Impfstoffe einem höheren Risiko ausgesetzt sind, sich eine unheilbare bzw. tödliche Krankheit zuzuziehen, womit sie den buchstäblichen "Nerv der Zeit" treffen. Als Kind hatte ich immer Angst vor dem Impfen und habe mich danach richtig schlecht gefühlt. Und dass das gesund sein soll, habe ich nie geglaubt. Meistens hat die Intuition Recht. : )