Angewandte Messverfahren

 

Die Messungen zur Erfüllung der Qualitätsstandards der Gabriel Technology Platform™ werden regelmäßig vom Geophysikalische-Forschungs-Gruppe e.V. durchgeführt.

 

 

Umfangreiche Laborausstattungen sind Voraussetzung

 

Um sich dem Problem Elektrosmog physikalisch, elektrochemisch und biologisch nähern unter Laborbedingungen zu können, sind aufwändige Messmethoden notwendig. Nur so können die Wechselwirkungen der Felder untereinander sowie die Auswirkungen auf lebende Organismen erfasst werden.

 

Der Geophysikalische-Forschungs-Gruppe e. V. (GFG) hat über Jahre hinweg in ein umfangreiches Equipment investiert, um insbesondere die multiplen Wechselwirkungen des Elektrosmogs darstellen zu können.

 

Parallel dazu arbeitet die GFG mit der notwendigen messtechnischen Kompetenz und Erfahrung mit physikalischen, chemischen, biologischen und medizinischen Untersuchungsmethoden.

 

Zusammen mit Kooperationspartnern aus verschiedenen Institutionen und Universitäten ergibt sich ein großes Spektrum an Untersuchungs- und Studienmöglichkeiten – wobei die GFG stets die Phase: I-Tests durchführt, um im Sinne von Screenings grundlegende Reaktionen und Wechselwirkungen zu identifizieren und in einem ersten Durchlauf darzustellen.

PHYSIK

CHEMIE

BIOLOGIE

RDFM® (Raster-Dual-Feld-Messverfahren)

Physikalisch-technische Methoden: 3D–Sonde für elektrische Wechselfelder (NF) Als Folge elektrischer Wechselspannungen in Hochspannungsleitungen, unserem Hausstromnetz, an das Stromnetz angeschlossene elektrische Haushaltsgeräte, Computer, Radiorekorder, elektrischen Heizgeräten entstehen elektrische niederfrequente (50 Hertz) Wechselfelder. Dies ist sogar auch dann der Fall, wenn kein Strom fließt, also die jeweiligen Verbraucher ausgeschaltet sind. Die heutige umfangreiche Hausstrominstallation und die Vielzahl der Elektrogeräte, die zusätzlich über Stromverteilerdosen und über direkt in den Wohn- und Schlafräumen liegenden Kabelverbindungen versorgt werden, führen ebenso wie das magnetische niederfrequente Wechselfeld zu multiplen Wechselwirkungen und ergeben so mit den übrigen technischen Geräten des Alltags, den eigentlichen ElektroSmog. Das natürliche Geomagnetfeld wird hiervon ebenfalls überlagert und sehr stark beeinflusst. Gesundheitsbelastungen wie Atembeschwerden, Allergien, Akne, Kopfschmerzen, ständige Müdigkeit, Nervosität, Schlaflosigkeit und Infektanfälligkeit werden beispielsweise mit niederfrequenten elektrischen Wechselfeldern in Verbindung gebracht.   3D–Sonde für magnetische Wechselfelder (NF) Elektromotoren, Hochspannungsleitungen, unser Hausstromnetz sowie alle Verbraucher oder an das Stromnetz angeschlossene elektrische Geräte und Transformatoren erzeugen niederfrequente (50 Hertz) magnetische Wechselfelder, während sie eingeschaltet sind und der Strom dementsprechend fließt. Das Stromnetz der Eisenbahn erzeugt ebenfalls magnetische Wechselfelder, jedoch mit einer Frequenz von 16,7 Hertz. Die heutige umfangreiche Hausstrominstallation und die Vielzahl der Elektrogeräte, die zusätzlich über Stromverteilerdosen und direkt in den Wohn- und Schlafräumen liegenden Kabelverbindungen versorgt werden, führen zu multiplen Wechselwirkungen und ergeben den eigentlichen ElektroSmog. Das natürliche Geomagnetfeld wird hierdurch überlagert und sehr stark beeinflusst. Gesundheitsbelastungen wie zum Beispiel: Herzrhythmusstörungen, Tinnitus, Ohrenpfeifen, Schlafstörungen, Kribbeln in den Gliedmaßen, Depressionen, Krebsrisiko und Leukämie werden mit niederfrequenten magnetischen Wechselfeldern in Verbindung gebracht. Die WHO (Weltgesundheitsorganisation) gibt Magnetische Flussdichten mit Werten von 300 – 400 Nanotesla als potenziell krebserregend an.   3D–Sonde für magnetische Gleichfelder(Magnetostatik) Das größte magnetische Gleichfeld ist unser natürliches Erdmagnetfeld mit einer magnetischen Flussdichte von 20.000 – 60.000 Nanotesla (nT), je nach geographischem Standort auf der Erdkugel. In Europa betragen die magnetischen Flussdichtewerte ca. 45.000 nT. Das natürliche Geomagnetfeld ist nicht nur vom Standort abhängig, sondern unterliegt normalen Schwankungen von ca. 10 bis ca. 100 nT und wird darüber hinaus von geologischen Verwerfungen, Wasseradern und unterschiedlichen Gitterformationen beeinflusst. Ebenso verändern bauphysikalische Gegebenheiten (Eisenträger, Stahlmatten, etc.) das Erdmagnetfeld. Jeder Dauermagnet bspw. einer Lautsprecherbox oder batteriebetriebene Gleichstromverbraucher erzeugen ebenso magnetische Gleichfelder, die wiederum das natürliche Erdmagnetfeld verändern und beeinflussen. Starke technische magnetische Gleichstromfelder entstehen bei Straßen- und Untergrundbahnen oder bei elektrischen Fahrzeugen. Auch im Innenraum unserer Kraftfahrzeuge sind hohe Belastungen aus magnetischen Gleichfeldern messbar. Das Erdmagnetfeld stellt nach der Geobiologie die wichtigste stabilisierende Quelle des Lebens dar. Es sollte daher möglichst innerhalb einer Fläche wie z.B. des Bettes harmonisch und ausgeglichen verlaufen und in der Flussdichtehöhe je Standort nicht zu stark verändert sein.   Hochfrequenz-Analyser (HF) Mobilfunknetze stellen die Kommunikation von vielen mobilen Teilnehmern sicher. Die Datenübertragung erfolgt mittels elektromagnetischer Wellen auf jeweils zugewiesenen Frequenzkanälen. über Funkmasten werden dabei Funkzellen aufgebaut, in die sich das jeweilige Handy „einwählt“. Damit gleichzeitig bis zu 8 Teilnehmer auf einer Frequenz telefonieren können, werden heutzutage die elektromagnetischen Wellen gepulst, also in Zeitintervalle aufgeteilt. Neben den externen Mobilfunknetzen von Netzbetreibern wie T-Mobil, Vodafone, E-Plus, O2 wird die Funkübertragung aber auch in Firmen, Fahrzeugen und Privathaushalten genutzt. Schnurlose Telefone, Wireless LAN und Bluetooth sind mittlerweile Standard, weitere kabellose Verbindungen wie, WIMAX und piper:air sind in Probephasen bzw. werden bereits angeboten. Diese Vielzahl von zusätzlichen technischen Feldern hat in den letzten 10 Jahren den Elektrosmog-Cocktail explosionsartig erhöht. Unzählige zusätzliche Wechselwirkungen entstehen mit den ebenso umfangreichen Hausstrominstallationen und den vielfältigen Elektrogeräten, die zusätzlich über Stromverteilerdosen und direkt in den Wohn- und Schlafräumen liegenden Kabelverbindungen versorgt werden. Das natürliche Geomagnetfeld wird hierdurch mehr als stark beeinflusst. Es bilden sich Hot-Spots, die das Erdmagnetfeld regelrecht zerreißen.   Elektrostatikfeldmeter Elektrostatikmessung mit einer Feldmühle, die stehende, statische Ladungen und Elektronenwolken im Raum aufspürt: Kunststoffgegenstände, Plastiktüten, Kunstfasergardinen, Kunstfaserteppiche, Plüschtiere für Kinder, etc. erzeugen oft hohe elektrische Ladungen von mehreren tausend Volt. Dies kann das Raumklima ungünstig verändern und möglicherweise auch den Körper schwächen. Die Messtechnik unterscheidet sofort elektrisch hochgeladene Gegenstände von normalen Gegenständen. Das Elektrofeldmeter EFM 022 ist aufgrund seiner kompakten Bauweise und Ein-Taster-Bedienung sehr benutzerfreundlich. Es stehen 5 Messabstände zur Verfügung. Mit der Hold-Funktion kann der Messwert in der Anzeige eingefroren werden; dadurch kann auch an schwer zugänglichen Stellen genau gemessen werden. Sehr hohe Nullpunktstabilität - dadurch entfällt der bei anderen Systemen notwendige Nullpunktabgleich vor jeder Messung.   Magnaprobe Eine einfache Art, um die dreidimensionale Natur des magnetischen Gleichfeldes (z. B. Erdmagnetfeld) darzustellen. Magnaprobe ist ein kleiner Magnet, der zweifach drehbar gelagert ist. Der magnetische Nordpol ist rot, der magnetische Südpol blau eingefärbt.   Genormter Messaufbau mit separater Feldverrechnung Gesonderte Messungen des elektrischen Wechselfeldes (NF, potentialfrei) und des magnetischen Gleichfeldes (Magnetostatik) im 25er-Rasterfeld. Aus den jeweils gemessenen Werten der x-, y- und z- Achsen werden die isotropen Raumwerte automatisch mittels Software als Ersatzwert errechnet und dokumentiert. Beide Rasterfelder werden anschließend durch Verrechnung in einem 25er-Raster-Dual-Feld grafisch dargestellt. Ein rechnerisch auf ‚Null’ gesetztes Raster-Dual-Feld dient als geglättetes Norm-Feld, in dem die folgenden Störungen exakt dargestellt werden. Die ‚Nullverrechnungen’ werden bei den jeweiligen grafischen Störungsdarstellungen berücksichtigt.   Grafische Darstellungen des Leistungspotentials relativ zum Normpotential in µW/m2 (NF). Die Messungen finden in einem rechnerisch geglätteten Norm-(=Null-) Feld mit einer Test-SIM-Karte statt, wobei die verwendete Test-SIM-Karte stets im Maximalbereich sendet, um absolut gleiche Emissionen zu gewährleisten.   Das Qualitätsmanagement für eine Entstörungs-Technologie ist ein einzigartiges und sehr hochwertiges Mess- und Auswerte-Verfahren zur Darstellung der Wirksamkeit eines Entstörungsproduktes. Es garantiert, unabhängig von Messzeit und Messort, dass sich die Auswirkungen von Störungen und deren Entstörungen durch ein Entstörungsprodukt am Beispiel der Veränderungen des Wirbelpotentials regelmäßig wiederholen lassen. Eine eingelegte Störquelle verursacht im Geo-Magnet-Feld wie im E-Feld relevante Störungen. Da beide Felder miteinander wechselwirken, ist die mathematische Verrechnung beider Feldstörungen notwendig, um das effektive Wirbelfeldpotential im Feld darzustellen. Die vorhandene Störquelle im Feld wird durch ein Entstörungsprodukt (sofern es etwas bewirkt) beeinflusst und es kommt zu einer Ent-Störung der Felder. Verdeutlicht wird dieses durch die mathematische Verrechnung beider Felder in der Darstellung des effektiven Wirbelpotentials. Die durchgeführten Messungen der Störquelle und der Störquelle mit einer Entstörungstechnologie im Vergleich gegen ein Normfeld, zeigen in der Gegenüberstellung eine Verminderung oder Erhöhung der Störungen durch die eingesetzte getestete Technologie.   Geomagnetomater 2001 Das BPM2001 ist ein analoges Messgerät zur Darstellung der vertikalen Komponenten der erdmagnetischen Flussdichte B mit Hilfe einer Föstersonde/ Hallsonde. Es stellt die Feldstärke in nT(1/1000stel µT) dar. Das 2001 hat einen Schrittschreiber-Ausgang, daher wird es mit Schreiber zur Darstellung, mit fixierter Hallsonde, von punktuellen Schwankungen im Erdmagnetfeld benutzt. Hier läuft das 2001 auch ständig parallel zu anderen Messgeräten einfach mit, damit die Stabilität der Umgebung zum Messfeld gesehen dokumentiert werden kann.   Geomagnetometer 2010 Das BPM2010 ist ein digitales Messverfahren zur Darstellung der vertikalen Komponente der erdmagnetischen Flussdichte B mit Hilfe der gleichen Hallsonde wie beim 2001. Da dieses Verfahren die Werte gleich in eine EDV liefert, sind hier flächige Anomalien sofort graphisch in einer 3D-Darstellung zu ersehen. Gerade im Zusammenhang mit der parallelen Kontrolle mit dem 2001 ergibt sich eine hohe Aussagekraft für Störungen, Einwirkungen und Anomalien, wie auch ggf. entstörender Maßnahmen im Erdmagnetfeld. Hier ist im Raster die Interaktion flächig darstellbar und somit der Grad einer Anomalie auch zu dokumentieren.   Geo-Scanner 3010 Das 3010 ist ein Kombigerät, was sowohl die Eigenschaften eines 2010 hat und andererseits auch durch die integrierte Feldmühle (s.u.) noch reine elektrostatische Veränderungen darstellen kann. Außerdem hat das 3010 eine 3-Achs-Hallsonde, wobei eine Mischung aus vertikalen und horizontalen Flussdichten summativ gemessen werden kann. Die Auswertung ist an sich graphisch gleich – zeigt jedoch noch einen Vektor-‚Zipfel’ an, an dem man die seitlichen Einflüsse und Veränderung ersehen kann – d.h. aufgrund der Ausrichtung des Vektor-Zipfels kann man erkennen, in wie weit die Einflüsse horizontal verteilt sind. Eine Flächen-3D-Graphik ist sowohl für die geomagnetische Messung, wie auch für die elektrostatische Messung möglich. Hier ist das Vergleichen beider Einflüsse besonders vor und nach Einwirkungen bzw. Entstörungen interessant. Daher eignet sich dieses System besonders in der schnellen Darstellung von Anomalien draußen im Feld – im Labor ist das System alleinig nicht vorteilhaft, da jeweils nur eine Komponente gemessen werden kann – synchrone Messungen, die im Labor notwendig sind können dann nur mit 2 parallel laufenden 3010-Systemen gemacht werden.   Statische Erd-Magnetstärke Die statische Magnetfeldstärke des Erdmagnetfeldes kann man durch Messung der horizontalen Flussdichte B in µT einfach durch horizontale Platzierung der Hallsonde sowohl mit dem 2001 wie auch dem 2010 darstellen. Diese Messung sagt aber, genau wie andere einfach Leistungsflussdichte-Messungen gar nichts bzgl. der Qualität von Interaktionen aus. Es zeigt nur, dass etwas da ist, was sowieso nicht verändert werden kann.   Feldmühle Die Feldmühle ist ein besonderes, dynamisches Messgerät zur Darstellung der Potentiale, d.h. der statischen Elektrizität = Spannung im Raum. Hier wird durch einen Ventilator freie Elektronen zu Messflächen gezogen und in einem bestimmten Messrhythmus werden die Entladungen gemessen. Daraus ergibt sich ein sehr feines Bild der elektrostatischen Verhältnisse in V/m im gemessenen Raum. Hier sind positive und negative Spannungsverhältnisse darstellbar – dies ist besonders im Zusammenhang mit Wechselwirkungen verschiedenster elektromagnetischer Quellen interessant, da solche Wechselwirkungen Interferenzen im Raum erzeugen können, die ihrerseits wieder auf das Beschleunigungsverhalten von Elektronen im elektrostatischen Feld Einfluss nehmen können. Und genau diese Beschleunigungsveränderungen können mit der Feldmühle erfasst werden. Um den Zusammenhang von elektromagnetischen Einflüssen und dem Erdmagnetfeld zu erfassen werden hier Feldmühle und Geomagnetometer synchron eingesetzt und parallel ausgewertet. Die Feldmühle ist daher in gewisser Weise analog zum HF-Digimeter nach Hengstenberg (s.u.) zu sehen – wobei die Feldmühle keine Summenspannung (Ueff) an sich misst, sondern nur die Beschleunigung, diese aber auch positiv wie negativ dokumentiert (V/m).   HF–Spektrum-Analyser Hamag (Scanner 150 kHz - 2 GHz) Der Spektrum-Analyser (analog zum Rohde&Schwarz-Scanner) misst alle auftretenden Signale in einem breiten Spektrum von 150 kHz bis rauf zu 2 GHz und stellt die einzelnen Signalanteile (=Frequenzen) als Spikes dar. Durch die Höhe der Spikes kann man so ablesen mit welcher Stärke diese einfallen. Die Darstellung geschieht in dB, d.h. Signalstärke gegen Null. Es wird somit auch ein Signal-Rausch-Abstand darstellbar. Dies ist wichtig zum Erkennen von Interferenzen, also von neu auftretenden Signale, die so nicht vorkommen, sondern nur das Resultat von Wechselwirkungen sind. Diese Signale werden auch als Geister- oder Spiegelfrequenzen bezeichnet. Hier wird also nicht die Leistungsflussdichte einzelner Signale gemessen sonders das Verhältnis des Auftretens einzelner im Gesamtspektrum. Für die Messung sind jedoch hochauflösende Antennen notwenig – z.B. große Ferrit-Rundantennen. Diese müssen im Eigenbau je nach Anforderung aufgebaut werden. Normale Antennen sind dafür nicht geeignet – wie auch beim HF-Digimeter, was die Summenstörspannung nur mit den induktiv-ankoppelnden Rund-Ferrit-Antennen messen kann. Hier einzeln als Spiegelfrequenz erkannte Signale können dann mit hochauflösenden Oszillographen (s.u.) einzeln in ihrem Auftreten oder Verschwinden mit Nahfeldsonden gemessen werden.   Summenstörspannung HF-Digimeter Das was der Scanner als Spektrum darstellt misst das Digimeter in der Summe und stellt es als Ueff, also als Summenstörspannung (Summe aller Spannungen im Breitspektrum) dar. Das Spektrum , das das Digimeter erfasst läuft von 150 kHz bis zu 3 GHz – es erfasst also die regulären Spannungen plus die aufaddierten Anteile der Spiegel-Frequenzen in einer Summe und stellt diese als eine Zahl dar. Das HF-Digimeter zeigt auch sofort, wenn z.B. durch Entstörungen interferente Spiegel-Signalanteile sich vermindern oder sogar verschwinden durch eine Verminderung des Zahlenwertes den entstörenden Effekt. Auch hier ist die Antenne von ausschlaggebender Bedeutung – es müssen auch hier induktiv ankoppelnde Ferrit-Rundantennen sein. So ergänzen sich Scanner und Digimeter in bemerkenswerter Weise.   HF–Wechselfelder - elektromagnetisch – Genitron / Gigahertz-Solution Im HF-Bereich fließen elektrische und elektromagnetische Aktivitäten zusammen und bilden elektromagnetische Felder. Diese beginnen bei etwa 150 kHz, also im beginnenden Radio-Bereich. Die hier auftretenden Felder werden mit dem Genitron HF-Tester qualitativ gefunden und dann in Summe quantitativ in nT messbar. Um welche Frequenzen es sich genau handelt wird dann mit dem Hamag-Scanner darstellbar. Analog dazu werden diese Signal-Stärken auch mit dem Gigahertz-Solution-Messgerät darstellbar. Diese Messung ist hilfreich zum Fahnden nach EM-Signalen und Darstellung der einfachen Leistungsflussdichte. Mehr nicht.   NF–Wechselfelder - elektrisch und elektromagnetisch – Genitron / Giga-Hertz-Solution Im niederfrequenten Bereich werden elektrische und elektromagnetische Wechselfelder noch getrennt gemessen – d.h. schlicht in V/m für die elektrischen Feldstärken und in nT für die elektromagnetischen Feldstärken. Dies ist die reine qualitative und quantitative Messung von Leistungsflussdichten. Hiermit ist ohne spezielle Filter keine Frequenz-Analyse möglich – das muss im Zusammenhang mit Scannern und/oder Frequenzzählern durchgeführt werden. Wobei bei den üblichen Mischfrequenzen und Signalüberlagerungen Frequenzzähler schlecht nutzbar sind sondern vordergründig die Scanner zum Einsatz kommen müssen. Daher sind diese Messverfahren auch nur geeignet zu zeigen ob was da ist, woher es kommt und wie hoch die Intensität ist. Sonst nichts.   UKW-Feldbeugung (Felix) nach Hartmann Dr. Hartmann hatte die Idee, dass sich ein an sich homogen ausbreitendes Feld durch überlagerungen mit anderen Feldern und Störungen in seiner Ausbreitung behindert und verändert wird. Wir kennen das als Schwund beim Taschentransistorradio noch zur Genüge. Auch beim Autoradio kennen wir diesen Effekt – nicht nur in Tunneln. Der Felix ist ein Hochleistungs-UKW-Messempfänger, der sich ganz exakt auf einen UKW-Sender einstellen lässt. Damit kann man eine Fläche auf Einwirkungen durch elektromagnetische, elektrische und geomagnetischen Einflüsse hin untersuchen. überall dort, wo es zu überlagerungen, Schwebungen, Dämpfungen und Interferenzen kommt, verändert sich die voreingestellte gemessene Feldstärke des UKW-Referenzsignales. Hieran kann man nun solchen Punkte oder Areale im Feld cm-genau bestimmen. Gleichfalls verändert sich nicht nur die Feldstärke sondern auch die Referenzsignal-Integrität, was als Sender-Mitte bezeichnet werden kann. Diese zwei Darstellungsmethoden geben einen guten Einblick in die Homogenität der Referenzsignalausbreitung. Im Zusammenhang mit Scanner/ Digimeter und Geomagnetometer kann man die Einflüsse sehr gut finden und auch eingrenzen und beschreiben.     Genitron-Radioaktivitäts-Zähler (Gamma-und Beta-Aktivität) Die Erfahrungen aus der Baubiologie zeigten schon früh Zusammenhänge zwischen Erdmagnetfeld-Anomalien und radioaktiver Bodenstrahlung. Der Radioaktivitäts-Zähler ist einerseits ein Geigerzähler zur quantitativen Sofortbestimmung von Gamma-Aktivitäten, andererseits aber auch ein Langzeitzähler für Gamma- und durch Filterung auch für Beta-Aktivitäten. Die Zählkammer ist gekoppelt mit einem zeitgesteuerten Zähler, der die Summenaktivitäten in bestimmten Zeitfenstern dokumentieren kann. Dies ist interessant, weil auch Höhenstrahlungen Gamma-Aktivitäten aufweisen. Zusammenhänge mit Rastermessungen müssen noch untersucht werden und können als zusätzliches qualitätssicherndes Moment genutzt werden.   LASER–Holographie–Interferenzbeugung (Oberflächenresonanz) Ausgehend von der Überlegung, dass Signaturen und Strukturierungen in metallischen Körpern zu einer Veränderung der Metallgitter und der Valenzelektronen-Gase führt, liegt die Vermutung nahe, dass diese Strukturunterschiede, analog zum Quarz-Modell im Funk, zu Veränderungen der resonativen Koppelung und Reflexion elektromagnetischer und magnetischer Einflüsse führt. Diese Veränderungen können in der Folge den Aufbau eine fest vorgegebenen Interferenz-Hologramms beeinflussen. Um dieses messtechnisch erfassen zu können wird eine optische LASER-Holographie-Bank mit einem Leistungs-He-Ne-LASER aufgebaut und im Einflussbereich an der metallischen Fläche ein Hologramm erzeugt. Aufgrund der Ausprägung des erzeugten Hologramms kann man die Reinheit/Integrität der Fläche ersehen. Diese Methodik wird auch in der Werkstoffprüfung eingesetzt, um innere, von Außen nicht sichtbare Struktur-Irritation darstellen zu können. Hier wird die Idee der Strukturmodifikation, d.h. die Einprägung einer Signatur auf z.B. Metallfolien, genauer zu untersuchen und ggf. auch zu belegen helfen.   Electronic-Workbench (EDV-Simulation von physikalischen Einflüssen) Die Electronic-Workbench ist eine spezielle aufwändige Software, die es gestattet im PC Schaltungen virtuell aufzubauen und diese in ihrer Funktion per Simulation rund-um zu testen, obwohl sie noch gar nicht gebaut wurden. Das bedeutet auch, dass hier zum Beispiel auf virtuelle Haut- oder Zellmembranmodelle aufgebaut werden können, die dann mit einem ganzen virtuellen Equipment von Generatoren beeinflusst werden können. Ebenfalls virtuelle Messsysteme verschiedenster Art können dann an allen Stellen des Modells messen, was sich hier gerade in der Simulation der Schaltung ereignet. Das Besondere hieran ist aber auch, dass ohne Probleme jede Stelle der Schaltung sofort im PC verändert oder angepasst werden kann – auch solange, bis das was rauskommen soll mit den möglichen Grundeinflüssen erzeugt oder auch vermindert werden kann. Auch können Schaltungen kombiniert oder gegeneinander im Zusammenwirken simuliert und getestet werden. Daher ist diese Workbench ein ganz wichtiges Instrument in der Grundlagenforschung bzgl. der Reaktionsarten physikalischer Einflüsse und deren Wechselwirkungen.   Surfer8.0-Auswertungs-EDV (Darstellung von physikalischen Einflüssen in 3D) Die Surfer-Graphik-Software ist ein geomathematisches Auswertungsprogramm zur 3D-Darstellung von unterschiedlichen Flächen in ihren Höhen und Tiefen. Damit eignet sie sich gerade zur Darstellung punktueller Vektorwerte auf einer Fläche, die dann als Höhenlinien verrechnet und projiziert werden. Neben einer farbigen Landkarten-/Linien-Projektion stehen auch die sog. Gebirgsgraphiken zur Verfügung und letztlich auch die Analyse der Flächenvektoren als Flusslinien der Höhenverläufe – diese können in Analogie auch für den Fluss von Inhomogenitäten z.B. im Erdmagnetfeld benutzt werden. Das Surfer-Programm basiert auf Exel-Listen und ist daher derzeit nicht kompatibel mit den internen Wertetabellen der Geomagnetometer. Dafür wird aber eine eigene Konvertierungssoftware geschrieben.   Goldstar-2-Kanal-Speicher-Oszillograph 30 MHz Der Goldstar-Oszillograph gehört mit zu den leistungsfähigsten Geräten. Der Oszillograph zeichnet Signale auf und stellt sie in ihrem Verlauf, d.h. die Form des Signals, 2D graphisch dar; wobei die Flankenanstiege, die Abflachungen und der gesamte Verlauf der Ein- und Ausschwing-Verhältnisse eines Signals dokumentiert werden. So können besonders auch Modulationen in Frequenz oder Amplitude und auch Oberwellenveränderungen dargestellt werden. Er arbeitet mit 2 Kanälen, die jeweils mit einer Rate von 30 MHz abgetastet werden, das gehört in der Abtastrate zum oberen Segment der Messeinrichtungen, wobei die hier einlaufenden gemessenen Signale außerdem in einen digitalen Speicher abgelegt werden können – d.h. es können synchron zwei unterschiedlich Quellen gemessen und parallel dargestellt werden. Jede Quelle kann dabei auch unterschiedlich gezoomt, gespreizt und getriggert werden. Die Möglichkeiten der Darstellung und Verarbeitung im Gerät sind immens. Dies ist besonders wichtig für vergleichende Messungen unter verschiedenen Einflüssen. Eine Besonderheit dieses Oszis ist jedoch die Möglichkeit der Cursor-Steuerung, wodurch es möglich ist Signale zu begrenzen, zu zoomen und bei zwei Quellen diese sogar übereinander zu legen und die Differenz herauszurechnen und darzustellen. Damit sind auch Messungen im Sinne einer Wheatstone’schen Messbrücke möglich, wobei zwei Signale bzw. Einflüsse direkt miteinander durch Null-Rechnung und deren Abweichung darstellbar sind.   EDV-Oszillograph mit FastFourier-Transformationsanalyse Da Interferenzen und Modulationen Ergebnisse von und mit Trägerwellen sind, sind die Frequenzen in den unteren Bereichen des Frequenzbandes angesiedelt. Der untere MHz-Bereich wird von Modulationen oder Interferenzen selten erreicht. Die meisten Signale dieser Kategorie, also auch Spiegelfrequenzen, liegen im kHz-Bereich und darunter. Eine Abtastrate von 10 MHz ist daher ausreichend, wenn man solche Signale erfassen will. Die EDV-Konzeption ermöglicht aber dann auf dem PC, der den Oszi simuliert, weitergehende Auswertungen – z.B. die Analyse mit der FastFourier-Transformation (FFT). Dies ist eine mathematische Methode, mit der man den ‚Zusammenbau’ eines Signals errechnen und darstellen kann. Oftmals sind Signale nicht isoliert, sondern aus der Summation mehrerer Frequenzen aufgebaut. Die FFT-Analyse macht es möglich diese beteiligten Signal-Komponenten zu identifizieren.   EDV-Langzeit-Dokumentations-Oszillograph Manchmal ist es notwendig über einen längeren Zeitraum Signale und deren Entwicklung zu verfolgen. Dies ist mit einem herkömmlichen Oszi nicht möglich. Dazu gibt es den EDV-Langzeit-Oszi, der ein vorbestimmtes Signal identifiziert und dieses in einer festen Abtastrate misst, erfasst und an die EDV zur linearen Speicherung abgibt. Hier wird eine sequenzielle Datei erstellt, die hinterher vielfältige Auswertungen und Darstellungen über den ganzen Messzeitraum ermöglicht. Dies ist interessant bei der Identifikation von bestimmten Störsignalen, die z.B. parallel zu einer Langzeitmessung mit dem Geomagnetometer die Entwicklung und das Zusammenspiel der Wechselwirkungen darstellbar macht.   EDV-Frequenz-Analyser/ Frequenzzähler Neben den bisher beschriebenen Analyse-Methoden ist dann noch die genaue Identifikation einer Frequenz in hoher Genauigkeit wichtig. Dazu werden hochauflösende Frequenzzähler benutzt. Diese zählen die aufkommenden Signale und ordnen sie zeitlich einer Frequenz zu. Bei einem hohen Frequenzaufkommen ist aber auch eine Auseinanderrechnung der einzelnen auftretenden Frequenzen nötig – dies ermöglicht die PC-gestützte Frequenzanalyse. Hier werden alle Frequenzen gespeichert und dann bis auf die 4. Stelle nach dem Komma rechnerisch getrennt und gelistet.   Analoger Frequenz-Zähler Der analoge Frequenzzähler führt eine laufende Fluss-Zählung durch und zeigt zu jedem Zeitpunkt die gerade dominante Frequenz an, wenn mehrere Frequenzen auftreten. Damit können im Langzeit-Rahmen zum Beispiel auch die jeweils auftretenden Interferenz-Frequenzen identifiziert werden. Damit ergänzt dieses Messsystem den Scanner und das Digimeter.   Diverse Dazu kommen noch Frequenz- und Signalgeneratoren (jeweils als Hardware und als Software) – auch in Wooble-Form, mehrere unterschiedliche Multimeter, Gehäusespannungsmessgeräte, Labor-Teile wie Wheatstone’sche Messbrücke etc. Auch ist eine PC-gestützte Platinenentwicklungs- und layouter-Software (Router) vorhanden, die erfolgreich simulierte Schaltungen gleich in platinenfähige Muster umsetzt, die dann sofort geätzt, gebohrt, bestückt und gelötet werden können. 

Chemisch-physikalische Methoden:

 

 

Redox–Potential in Flüssigkeiten

 

Die Messung des Redox-Potentials stellt eine besondere Beurteilung der physikalischen Aktivität von Lösungen dar. Hier geht es um die Reaktionsfähigkeit von chemischen Flüssigkeiten. Das Potential wird in mV dargestellt. Es zeigt die Aktivität einer chemischen Zusammensetzung, z.B. auch die Qualität von biochemischen Lösungen. So wird auch z.B. Wein in seiner ‚Lebendigkeit’ mittels Redox-Potential-Messungen beurteilt. Je höher der mV-Wert ist, desto mehr chemischen Aktivität ist im Substrat vorhanden und damit ist es auch reaktionsfreudiger – d.h. ‚lebendiger’ Hier sind auch störende Einflüsse auf die Integrität der Lösung darzustellen, bzw. auch entstörende Maßnahmen können damit abgebildet werden.

 

 

 

Leitwert in Flüssigkeiten

 

Der Leitwert einer Flüssigkeit hängt ab von der Ionisierung dieser Lösung – d.h. von der Leitfähigkeit von elektrischen Ladungen. Dies hat nichts mit der Dichte an sich zu tun, sondern speziell mit der elektrischen Eigenschaft der Stromleitfähigkeit – dargestellt in Siemens. Gewisse Substanzen der Lösung können je nach Aktivitätsgrad entweder gesättigt oder auch ionisiert vorliegen, sodass man über die Leitfähigkeit die Ladungseigenschaften von Molekülen aufgrund von äußeren und inneren Einflüssen beurteilen kann. Dies kann auch interessante Einblicke in Störungen und Entstörungen im Flüssigkeitsgefüge geben.

 

 

 

pH-Wert in Flüssigkeiten

 

Der pH-Wert sagt schlicht nur etwas über den Säuregrad einer Lösung aus. Also ist diese mehr sauer oder mehr basisch oder aber neutral. Hier wird also nur eine Wasserstoff-Ionen bezogene Konzentration dargestellt. Interessant wird der pH-Wert aber im Zusammenhang mit der Mikroanalytik, bei der der Neutralpunkt bestimmt wird. Aufgrund vielfältiger Einflüsse kann sich dieser Neutralpunkt bei der mikrochemischen Analyse mit spezifischen Reaktionsindikatoren leicht verschieben. Hier sind dann Rückschlüsse auf vielfältige Einflüsse, Störungen und auch Entstörungen möglich.

 

 

 

Mikrotitrationsanalytik von Flüssigkeiten

 

Bei der Mikroanalytik wird eine bestimmte sauere oder basische Lösung mit einem physikalisch-chemisch reagierenden Indikator versehen und dann mit einer festeingestellten, molaren Analyse-Lösung zum Neutral-Punkt titriert. Der Verbrauch der Analyse-Lösung bis zum Indikator-Farbumschlag am Neutralpunkt lässt dann durch Verrechnung zu, die pH-Eigenschaften dieser Lösung genau zu bestimmen. Die Lage des Neutralpunktes in dieser spezifischen Lösung ist aber auch von gewissen äußeren Einflüssen störbar oder entstörbar. So dass man hier Rückschlüsse auch wieder auf die Integrität der Lösung im spezifischen Einfluss-Umfeld ziehen kann.

 

 

 

Mikrokomplexometrie (Eigenschaften von Flüssigkeiten)

 

Lösungen sind nicht immer über ihre pH-Eigenschaften zu beschreiben, auch nicht durch Leitwert- oder Redox-Reaktionen, sondern manchen Eigenschaften in Lösungen beschreiben sich durch Veränderungen in der Fähigkeit spezifische Komplexe mit speziellen Stoffen zu bilden. Diese Komplexbildung ist in hohem Maße aber auch von energetischen Eigenschaften der Stoffe selbst aber auch der Lösung an sich abhängig. Somit kann man durch die Komplexometrie eine ganz andere Eigenschaft von Gemischen und Lösungen zusätzliche darstellen, die sich in anderen Methoden gar nicht zeigen werden. Komplexbildung sind z.T. äußerst sensibel reagierend auf äußere physikalische Einflüsse verschiedenster Art. Gerade die aufwändige Komplexometrie ist neben der Chromatographie wahrscheinlich sogar am besten geeignet, um Elektrosmog bedingte Einflüsse in standardisierten Lösungen darstellen zu können – wie dies auch analog sich im ‚Spucke-Test’ zeigt.

 

 

 

Dünnschicht- und Papierchromatographie

 

Bei der Chromatographie geht man den umgekehrten Weg analog zu Komplexometrie – hier wird die Trennbarkeit von Substratanteilen in einem Lösungsmittel dargestellt. Mittels Farbstoffen werden bestimmte Anteile eines Lösungssubstrates eingefärbt und dann in einem Lösungsmittel auf bestimmten Schichtpapieren über den Kapillar-Effekt zum Laufen gegen die Schwerkraft gebracht.

 

Da hier die physikalischen und geomagnetischen Eigenschaften und Wirkungskräfte ganz besonders im Vordergrund stehen, werden ganz feine Veränderungen in der Konsistenz der Lösungen sichtbar gemacht. Die unterschiedlichen Kriechstrecken pro Zeiteinheit zeigen direkt die spezifischen Veränderungen in der Integrität der Lösung und der gelösten Substrate. Einflüsse von Außen, wie z.B. Elektrosmog-Einwirkungen, können hier ggf. mit hoher Trennschärfe dokumentiert werden.

 

 

 

Elektrophorese

 

Bei der Elektrophorese wird eine weitere Trennungseigenschaft von Substraten in Lösungen untersucht, nämlich die in einem fest definierten elektrischen Mikrofeld. Anders als bei der Chromatographie wird hier nicht die Wanderung gegen die Schwerkraft, sondern die Wanderung gemäß elektrischer Feldlinien dargestellt. Die Wanderungsfähigkeit basiert hier nicht auf der Massenwirkung sondern auf der Leitfähigkeit und Polung der Substrat-Anteile. Auch hier können Farbstoffe zur Markierung bestimmter Fraktionen genutzt und die Wanderungsstrecke innerhalb einer Zeiteinheit beurteilt werden. Da die Wanderungsfähigkeit nicht nur vom Substrat sondern auch vom Lösungsmittel abhängt, können hier auch physikalischen Störungen und Entstörungen der Flüssigkeit Einfluss nehmen und dokumentiert werden.

 

 

 

Refraktometrische Lösungsdichte in Flüssigkeiten

 

Die Refraktometrie zeigt die Löslichkeit von Substraten in einer Lösung ab. Die Löslichkeit hängt nicht vordergründig von der Menge sondern von der Lösungsfähig des Substrates einerseits und anderseits von der Lösungskapazität der Lösung selbst ab. Dieses Zusammenspiel ist von vielen physikalischen Einflüssen abhängig und kann daher sehr viel über die Eigenschaften des Zusammenspiels zeigen. Da ein gelöster Stoff von Wassermolekülen ummantelt wird, wird er dadurch optisch unsichtbar – d.h. man kann mittels eines optischen Lichtberechungsverfahren ersehen, wie viel in Lösung gegangen ist.

 

Dieses Verfahren wird standardmäßig bei Winzern zur Qualitätsbeurteilung von Traubensäften vor und während der Ernte eingesetzt. Auch die Forstwirtschaft setzt dieses Verfahren zur Darstellung der Lebensqualität von Baumbeständen ein, da auf grund der Lösungsdichte die Anpassungs- und Reaktionsfähigkeit der notwendigen Steuerungsprozesse gezeigt werden kann. Auch elektrosmog-bedingte Einflüsse und deren Entstörungen können so im Zusammenhang mit lebenden Organismen dargestellt werden.

 

 

 

Trocknungs-Kristallisation von Flüssigkeiten unter physikalischen Irritationen

 

Der Prozess einer Trocknung von Lösungen ist wieder ein ganz anderer Vorgang als die vorher beschriebenen. Bei der Trocknung dampft Lösungsmittel ab und das Substrat wird immer höher konzentriert. Bei dieser Konzentrationsverdichtung kommt es aber zur Kristallbildung. Und die Kristallbildung hängt direkt mit den Clusterungs-Eigenschaften der Substrate zusammen. Kristallbildungen laufen strikt nach den inneren Massenwirkungs- und Ordnungskräften der Substrate ab. Sie sind aber durch äußere physikalische Einwirkungen störbar. D.h. die innere harmonische Ausgestaltung der Kristallisation wird verändert, beeinflusst und lässt sich daher sofort als Veränderung der Struktur optisch erkennen und mittels Digital-Mikroskopie dokumentieren.

 

Elektrosmog-Einflüssen mögen hier besonders gut darstellbar sein – aber auch entstörende Maßnahmen können sich in einer wieder harmonischeren Ausbildung der Kristallstrukturen zeigen; analog zum ‚Spucke-Test’ wenn lebende Organismen beeinflusst werden (s.u.) . Dies ist auch interessant bzgl. der Integrität von z.B. homöopathischen Medikamenten.

 

 

 

Eiskristallisation (nach Emoto)

 

Eine Besonderheit der Kristallisation unter elektromagnetischen und elektroakustischen Einflüssen ist die Eiskristallisation von reinem, bi-destillierten Wasser nach Dr. Emoto. Die Wassertropfen werden bei ca. –5°C zur Bildung von Eiskristallen gebracht. Da hier so gut wie keine Substrate und Verunreinigungen im Wasser sind, werden nur die inneren Bindungskräfte des Wassers beurteilbar. D.h. die Bildungsfähigkeit der Eiskristalle wird ausschließlich nur durch externe Einflüsse, wie z.B. Musik oder auch Elektrosmog und deren Ein- und Auswirkungen auf die Massenwirkungskräfte der Wassermoleküle und deren Clusterfähigkeit dargestellt und dokumentiert.

 

 

 

Ozon-Konzentrationsmessung

 

Ozon ist ein dreifach gebundenes hochreaktionsfähiges Sauerstoffmolekül, welches durch hohe Energetisierung erzwungen wird. Die Bindung an sich kommt in der Natur vor (Ozonschicht) ist aber normal chemisch anatürlich. Hier liegt der Labor-Test-Effekt in einem geschlossenen Raum nahe, wobei entweder Ozon technisch durch z.B. einen Quarzbrenner erzeugt oder aber durch äußere Einflüsse elektromagnetischer Art – z.B. hohe elektrostatische Spannungen – hervorgerufen wird. Hier die Ozon-Konzentration mit und ohne experimentelle Einflüsse in ppm-Werten messen zu können kann einiges über die Bindungsaktivität des Sauerstoff im Modell aussagen und damit auch Rückschlüsse auf die einwirkenden Einflüsse zulassen. Elektrosmog-Aktivitäten, die zu änderungen im elektrostatischen Feld führen, können so in Erweiterung ggf. sehr fein über die Ozon-Konzentration abgebildet werden.

 

 

 

Polarimetrie (Dreheigenschaften von Flüssigkeiten)

 

Die Polarimetrie zeigt den Drehwinkel von Flüssigkeiten an. Gelöste Substrate brechen das Licht einerseits, sie schwingen andererseits aber auch in einer bestimmten Wellenrichtung. Diese Schwingungsausrichtung ist sehr abhängig von der Art der Substrate und deren parallel vorkommenden Isomere zum Beispiel.

 

Wir kennen z.B. links- und rechtsdrehenden Zucker. Veränderungen der Schwingungsebene kann man durch spezifische optische Filter dann sichtbar machen, in dem dann eingeschossenes Licht noch durchkommt oder nicht. Hieran kann man dann im Zusammenhang mit der Winkelstellung des Filters spezifische Aussagen über die Dreheigenschaft der Lösung tätigen. Besonders interessant wird dies im Zusammenhang mit gesteuerten Reaktionen im Sinne einer beeinflussten Synthese bestimmter Reagenzien, wenn diese Einflüsse hierbei zur Bildung von isomeren Anteilen führen, die direkt Einfluss auf die Dreheigenschaft nehmen.

 

Es ist denkbar, dass Elektrosmog-Einflüsse bei der Synthese die Energie-übertragungen an den Molekülgruppen beeinflussen können und somit andere Reaktionsprodukte erzeugen können. Hier ist die Polarimetrie ein adäquates Testmittel.

 

 

 

Photometrie (Absorptionseigenschaften von Flüssigkeiten)

 

Eine weitere Eigenschaft von Flüssigkeiten und deren gelösten Substraten lässt sich durch die Absorption von Licht beim Durchgang durch die Lösung darstellen. Dazu wird ein durch ein Prisma erzeugtes monochromatisches Licht optisch durch eine Lösung geleitet und die noch austretende Lichtmenge mittels Photozellen gemessen. Die Lichtabsorption ist hier wiederum abhängig von der Art der Lösungsfähigkeit und der Einflüsse äußerer Einwirkungen. Der Effekt der Lichtdurchleitung ist von multiplen Faktoren abhängig, die hier hauptsächlich auf atomar-energetischen Wirkungen innerhalb des Lösungsgeschehens basieren. Damit ist ein weiterer interessanter Test für z.B. auch elektrosmog-bedingte Einflüsse und möglichen Entstörungseffekten vorhanden..

 

Dazu kommen natürlich noch die Möglichkeiten kleinerer umwelt-chemischer Test, Luftgift-Analysen mit großem Draeger-System, sowie auch die Möglichkeiten kleinerer Laborsynthesen zur Herstellung spezifischer Lösungen und Reagenzien.

Biologisch-medizinische Methoden:

 

 

Harn-Reaktions-Status - biochemisch per überschichtung

 

Im Harn befinden sich ein ganze Reihe von chemischen und biologischen Bestandteilen. Diese sind abhängig vom physiologischen Geschehen des Organismus und seinen biochemischen Reaktionen. Bei der überschichtungsreaktion wird vorsichtig eine spezielle Reagenz über den Harn geschichtet. An der Grenzschicht der beiden Phasen findet dann je nach Bestandteilen eine spezifische Reaktion mit Farmumschlag durch aktive Komplexbildung statt, wodurch man auf bestimmte hoch reaktive Substanzen schleißen kann. Die überschichtungsreaktion ist sehr anspruchsvoll – zeigt aber auch das Vorhandensein der reaktionsfähigen Fraktionen der Harnbestandteile und damit gehört es indirekt zu den chemisch-physikalischen Tests. Daher sind elektromagnetische Störungen im Rahmen der Möglichkeiten und können ggf. einen schnellen Hinweis auf Störungen der energetischen Zustände aufzeigen.

 

 

 

Harn-pH und Harn-Dichte und Harn-Leitwert nach Vincent

 

Diese drei Werte sind physikalisch-chemische Reaktionen des Harns und stehen nach Vincent in einem direkten physiologischen Zusammenhang. Dieser Zusammenhang ist durch Kennlinien in seiner physiologischen Breite bekannt und daher sind Abweichungen einzelner bzw. auch Veränderungen im Gesamtzusammenspiel in mehreren Dimension ablesbar und direkt auf die einwirkenden Vorgänge hin interpretierbar. Der Test ist sehr sensibel und bedarf eines hochexakten Laborarbeitens. Durch die Veränderungen im sog. ‚Spucke-Test’ ist bekannt, dass elektromagnetische Einflüsse die Körperreaktion basierend auf den Wasserphasen beeinträchtigen können. Daher sind besonders die Körperflüssigkeiten zur Darstellung solcher Veränderungen geeignet. Mit diesem Trias-Test ist somit eine Untersuchungsmöglichkeit der biologisch-physikalisch-chemischen Reaktionen im Harn vorhanden und nutzbar.

 

 

 

Harn-Sedimentierungs-Mikroskopie

 

Durch vielfältige Vorgänge im Organismus kommt es zur Ausscheidung von festen Bestandteilen im Harn. Dies sind Hautbestandteile, Bakterien, Toxine aber auch Salze. Letztere können je nach Beschaffenheit mehr oder weniger große und komplexe Kristallformen annehmen. Die Kristalle werden in der dekantierten frischen Sedimentierung im Mikroskop analysiert. Aufgrund dieser Verklumpung sind Rückschlüsse, analog zur Dunkelfeldmikroskopie des Blutes (sog. ‚Geldrollenbildung’) auf die Beschaffenheit der Harnlöslichkeit und der Komplexbildungsfähigkeit zu ersehen. Elektromagnetische Einflüsse können auch hier das empfindliche physikalisch-chemische Gleichgewicht stören.

 

 

 

Harn-Trocknungs-Kristallisation – Digital-Mikroskopie

 

Beim Lufttrocknen von frischem Harn kommt es zur Kristallbildung wie schon weiter oben prinzipiell erklärt. Diese Trocknungskristalle werden direkt beeinflusst von der Zusammensetzung des Harns einerseits und aber auch von z.B. physikalischen Einflüssen andererseits. Gerade dieser Einfluss ist für die Clusterung und Komplex-/Kristall-Bildung ausschlaggebend. Daher eignet sich dieser Kristallisationsprozess hervorragend zur Darstellung elektromagnetischer Einflüsse auf diese Körperflüssigkeit. Die Trocknungskristalle werden dann unter dem Digital-Mikroskop betrachtet und digital dokumentiert um dann vergleichend ausgewertet zu werden. Dies ist interessant um Störungen und Entstörungen mit deren Auswirkungen auf den Organismus bildgebend darstellen zu können.

 

 

 

Speichel-Trocknungs-Kristallisation –‚Spucktest’ - nach Kröplin

 

Der sog. ‚Spucke-Test’ ist analog zum Harn-Trocknungs-Test zu sehen. Nur wird hier Speichel benutzt. Gerade im Zusammenhang mit einem Handy im Kopfbereich wird der Speichel und seine Produktion direkt beeinflusst, während Harn dies erst über nachgeschaltete Stoffwechselgeschehen aufzeigt. Dazwischen ist die ThermoScan-Methode angesiedelt. Der Spucke-Test kann daher ein schnelles Erkennen von elektromagnetischen Einflüssen auf den Organismus aufzeigen. Der an der Luft getrocknete Speichel wird dann mit dem Objektträger ebenfalls unter dem Digital-Mikroskop betrachtet und digital gespeichert, um in der Folge vergleichende Auswertungen machen zu können.

 

 

 

Blutsenkungsgeschwindigkeit (BSG) nach Westergreen

 

Die Blutsenkungsgeschwindigkeit ist ein fein reagierender Test der Phasenkonsistenz des frischen Blutes. Im Blut sind feste Bestandteile im Serum in Lösung, gleichfalls sind im Normalfall die Blutkörper homogen suspensiert. Wenn dieses Blut nun durch Citrate ungerinnbar gemacht wurde, so kommt es im Laufe der Zeit zu einer Entmischung dieser Suspension – d.h. die Blutkörperchen fallen aus und es kommt zur Trennung zwischen Blutkörpermasse und Serum. Die Blutkörperchen sinken langsam in einem bestimmten Zählrohr nach unten. Die Geschwindigkeit dieser Trennung und Senkung pro Zeiteinheit ergibt dann die BSG als Wert. Da unter fiebrigen Reaktionen die BSG erhöht ist, und dies auch bei elektromagnetischen Einflüssen sichtbar wurde, kann man die Beeinflussung des chemisch-physikalischen Gleichgewichts – hier besonders der Lösungs- und Suspensions-Fähigkeit des Serums – sehr fein beobachten. Dies ist besonders interessant im Zusammenhang mit der ThermoScan-Untersuchung, da hier dann eindeutig thermischen von nicht-thermischen (fiebrigen) Reaktionen darstellbar und zu unterscheiden sind.

 

 

 

Herzratenvariabilität (HRV) Modell

 

Die HRV ist eine besondere Methode des EKGs. Hier wird nicht nur der regelmäßige Herzschlag erfasst, sondern in hoher Auflösung im msec-Bereich auch der Abstand der Herzschläge zu einander (beat-to-beat) erfasst und berechnet. Es ergibt sich hieraus eine Streuung der einzelnen Varianzen im Herzrhythmus. Da das Herz direkt mit dem vegetativen Nervensystem gekoppelt ist, sind hier Interaktionen zwischen beiden Systemen gegeben. Das autonome, also willkürlich nicht beeinflussbare vegetative Nervensystem steuert alle inneren Organe und Vitalfunktionen des Organismus. Es ist von vielen Faktoren beeinflussbar – auch von toxischem und elektromagnetischen, wie auch neuralen Stress. Daher eignet sich die HRV besonders als Global-Indikator des ‚Wohlfühlens’ des Organismus, da es die ökonomie des Stoffwechselgeschehens direkt abbildet. Eine hohe Streuung der Varianz spricht für eine gute Regelungsfähigkeit und damit für hoch ökonomischen Steuerungsvorgänge, während eine geringe Streuung der Varianz eindeutig Stress-Faktoren belegt. Im Zusammenhang z.B. mit der ThermoScan lassen sich so nicht-thermische Einflüsse fein darstellen und dokumentieren. Bei dieser HRV-Variante, die das KI nutzt, wird eine besondere EDV-Auswertung der Zahlenwerte angewandt, die auch vom AKH-Wien so genutzt werden: SD1->HF->SD2 werden in dieser Abfolge mit einander korreliert und dann statistisch dargestellt.

 

 

 

Elektromyogramm (EMG)

 

Die Muskulatur wird an sich willkürlich gesteuert – jedoch die Stoffwechseleigenschaften autonom. D.h. entsprechend der willkürlichen Anforderung steuern vegetative Prozess autonom die Ver- und Entsorgung des Muskelgewebes. Die Kontraktionsfähigkeit und der Grundtonus des Muskels in ein Zeichen seiner Leistungsfähigkeit. Das EMG ist ein elektrisches Verfahren, was das ‚Nerven-Feuer’ der neuro-motorischen Platten im Zusammenhang mit dem Zellmembranpotential darstellbar macht Hier werden die spezifischen gewebeeigenen Potenziale in mV abgetastet und dargestellt. Durch Stress kann es sehr schnell zu Tonusveränderungen (stressbedingte oder reflektorische Verspannungen) kommen, die sich dann in direkten Zahlen abbilden. Das EMG ist also in der Lage muskuläre Verspannungen und Tonusänderungen erfassbar zu machen. Hier ist der Zusammenhang mit dem Kinesiologie-Reflex interessant, da dieser auch Veränderungen gerade unter neuralen und elektromagnetischen Stress-Situationen aufzeigt. Hier sei nur noch das Phänomen der motorischen Unruhe unter Elektrosmog genannt.

 

 

 

Drehmoment unterstützter Kinesiologie-Muskel-Reflex nach Knop

 

Schon im ersten Auswertungsgang der GFG-Feldstudie (Teil 1) zeigte sich die hervorragende Nutzbarkeit des kinesiologischen Muskeltests nach McKenzie in der Beurteilung elektromagnetisch störender und entstörender Einflüsse. Hier wird der Delta-Muskel, der zur Stabilisierung des ausgestreckten Arms notwendig ist, manuell auf seinen Tonus überprüft – d.h. wie lange und wie stark kann der Arm unter Einfluss vom Probanden senkrecht hochgehalten werden. Dies sagt etwas direkt über den Tonus aber auch über die neurale Stabilisation- d.h. die Regelungsfähigkeit des neuro-muskulären Zusammenspiels - aus. Da dieser Test aber bisher nur über manuelle Druckunterschiede beurteilt wurde, war er nicht quantifizierbar. Die neue Form, die das KI entwickelte, macht nun den Effekt in Zahlen darstellbar indem der Muskel-Test mit einem Drehmoment-System und einem flexiblen Zugwiderstands-Potentiometer gekoppelt wurde. Die nun mögliche Zahlendokumentation in mA ermöglicht eine schnelle Vergleichbarkeit von Einflüssen und deren positiver Lösung.

 

 

 

GUA-Grundumsatz-Abweichung (Ruhestoffwechsel) nach Read

 

ähnlich wie bei der BSG zeigen auch Blutdruck und Puls Zusammenhänge auf, die in diesem Fall auf die Stoffwechselvorgänge schließen lassen. Aus der Blutdruckamplitude in Korrelation mit dem Puls kann das Stoffwechselgeschehen näherungsweise beschrieben werden. Das Zusammenspiel der beiden Faktoren sagen über die Pulshöhe und die Dynamik des Blutdrucks sehr viel über die Transporteigenschaften und die Transportgeschwindigkeiten im Blutstrom aus. Diese beiden Faktoren zeigen wie intensiv die Infrastruktur bedient werden muss. Da bei Fieber bekannter Weise der Stoffwechsel ‚hochgefahren’ werden muss, ist eine Erhöhung oder Erniedrigung (=Abweichung) des Stoffwechselgrundumsatzes diagnostisch interessant. Im Bereich nicht-thermischer Reaktion ist eine GUA dann von Interesse, wenn weder thermische Effekte von Außen, noch echte Fieber-Vorgänge bzw. infektiöse Zustände parallel darstellbar sind. Dann sind diese Abweichungen als Stoffwechsel-Stress zu beurteilen – der Stoffwechsel ‚schießt über’....

 

 

 

Segment-Thermoregulation

 

Die Haut als reflektorischen System reagiert auf jegliche Reize in vielfältiger Form. Der Tugor genauso wie Unterhautdurchblutung wie auch der Muskeltonus werden autonom geregelt. Einflüsse auf die Haut werden über Nervenendigungen endogen verarbeitet und dann wieder nach außen über die Segmente projiziert. Hier greifen Reflexsystem verschiedenster Art. Bei der Thermoregulation wird nun über punktuelle Oberflächentemperaturabtastung die segmentale Regulationsfähigkeit der Haut auf einen Einfluss, einen exogenen Reiz hin getestet. D.h. die Regelungs- und Anpassungsfähigkeit über die neurale Steuerung wird dargestellt. Hier wird dann ersichtlich, inwieweit der Organismus in der Lage ist solche Einwirkungen zu kompensieren. Kompensationsdefizite in bestimmten Segmenten lassen dann darüber hinaus auch noch Rückschlüsse auf die hauptsächlich gestressten Organsysteme zu. Dies ist interessant im Zusammenhang mit HRV und GUA. Die Aussage resultiert aus zwei Grundreaktionen – nämlich der Stoffwechselfähigkeit einerseits und der neuralen Regelungsfähigkeit andererseits. Damit ist ein feines Testinstrument für z.B. auch elektromagnetische Auswirkungen vorahnden.

 

 

 

IR-Oberflächenthermographie

 

Die Infrarot-Oberflächenthermographie tastet kontaktlos und punktuell die Temperatur der Hautoberfläche ab. Die Temperatur ist hier sehr hochauflösend darstellbar – anders als bei der Thermoregulation (wo dies so hochauflösend nicht nötig ist, da der Regelungsunterschied erfasst wird) – sodass thermische wie nicht-thermische Temperaturveränderungen gezielt in lokalen Bereichen im Vergleich zu anderen Bereichen darstellbar sind. Dies ist die punktuelle und einfache Variante zur aufwändigeren ThermoScan-Methode, die mit einer IR-Cam gemacht werden muss. Die Werte der IR-Thermographie sind Einzelwerte, die den Regionen einzeln zugeordnet werden müssen. Die Dokumentation kann so z.T. der aufwändig werden und setzt ein sehr exaktes, lokales Arbeite voraus. Diese Methode ist aber für schnelle Punktmessungen hochinteressant. Besonders auch als Kontrollmessung der sog. Kerntemperatur bei der Verwendung von IR-ThermoScans, damit die Temperaturveränderungen im Scan durch die synchrone Kontrolle der Kerntemperatur sicherer beurteilbar sind – damit Farbveränderung auch wirklich Farbveränderung ist.

 

 

 

IR-Thermo–Scan FLIR

 

Der Vorteil der ThermoScan-Methode liegt darin, dass hier mit hochauflösenden IR-Kameras z.B. auch Ganzkörperbilder in Echtzeit aufgezeichnet werden können. Die ThermoScan-Cams nehmen dazu ein Infrarot-Abstrahlungsspektrum auf und wandeln dies via EDV in sichtbare Farbabstufungen um. Somit können lokale Temperaturen und Temperaturverläufe optisch und erkennbar dargestellt werden. Und auch jede Veränderung sich sofort auf der gesamten Bildfläche in Echtzeit durch die Farbtemperaturanpassung darstellen lässt. Die aufgenommenen Thermo-Bilder können in den PC übertragen werden und stehen dort für aufwändige Auswertungen und Vergleich zur Verfügung. Die ThermoScan sind besonders interessant um flächige Temperatur-Ausbreitungen und –Verläufe sichtbar zu machen. Die hier auftretenden thermischen Darstellungen können aber auch nicht-thermischer Natur sein –d.h. durch Stoffwechselreaktionen erzeugt sein. Im Vergleich mit z.B. GUA und HRV sind so die Unterschiede zwischen thermischer und nicht-thermischer Erwärmung zu eruieren. Dies ist besonders im Bereich der Elektrosmog-Einwirkungen und solchen Entstörungen bzgl. der Auswirkungen auf den Organismus von bedeutsamer Aussagekraft.

 

 

 

Sauerstoffsättigung im Blut

 

Die Sauerstoffsättigung bezieht sich auf die Menge der oxygenierten Hämoglobinteile, d.h. also wie viel Sauerstoff im Blut aktiv gebunden ist. Die Sauerstoffsättigung zeigt sich in feinsten Farbnuancen in den Kapillargefäßen und lässt daher fast in Echtzeit Veränderungen in der Sättigung dokumentieren. Aufgrund der Erkenntnis aus der Dunkelfeldmikroskopie, dass elektromagnetische Einflüsse auch Auswirkungen auf die Konsistenz der Blutkörperchen, die durch ihren Eisenkern ferromagnetisch reagieren, haben – z.B. durch Koagulationen, Geldrollenbildungen etc. ist die Elektrosmog bedingte Veränderung auch in der Sauerstoffaufnahmefähigkeit der Blutkörperchen durch die Messung der Sauerstoffsättigung laufend darstellbar. Eine Verklumpung vermindert die Kontakt-Oberfläche der Blutkörperchen und damit kommt es zu einer verminderten Oxygenierung. Das führt zu einer verminderten Sättigung mit Sauerstoff im Blut. Es wird hier also ein energetisch erzeugtes sich strukturell auswirkendes Problem am Hämoglobin ersichtlich.

 

 

 

Sauerstoffpartialdruck im Blut

 

Mit dieser Methode wird mit Spezialdiffusions-Goldelektroden der partielle Druck des gelösten Sauerstoffs im Blut gemessen. Der Sauerstoffdruck ist einerseits abhängig vom Sauerstoffangebot in der Luft und andererseits von der Aufnahmefähigkeit des Blutes und letztlich von der Diffusionsfähigkeit im Alveolen-Bereich der Lungen. Diese drei Faktoren sind teils stoffwechselempfindlich aber auch teilweise rein physikalisch abhängig. Im Zusammenhang mit der Sauerstoffsättigung im Blut und der Raum-Umgebungs-Luftsauerstoff-Sättigung lassen sich Rückschlüsse auf die Zellmembranspannung affinen Reaktion der Schleimhäute herleiten. Auch wirken elektromagnetische Störungen sich Potential verschiebend und damit Partialdruck verändernd aus. Wobei diese Untersuchung eher für Langzeitbeobachtungen Verwendung finden kann, denn die Reaktionen sind eher indirekter Natur und unterliegen somit anderen Zeitläufen.

 

 

 

PeekFlow-Atem-Ausstoß-Test

 

Der Atem-Ausstoß-Test ist eine schnell reagierender Test auf physiologische Veränderungen im Lungen-Bronchial-Bereich. Das Zusammenspiel von muskulärer Lungen-Kraft und physiologischer Schleimhaut-Konsistenz bedingen die Möglichkeiten einen Atem-Spitzen-Ausstoß erzeugen zu können. Die ausgestoßene Luftmenge pro Sekunde wird als Spitzenwert dokumentiert. Dieser Test eignet sich auch, mit anderen grundmedizinischen Untersuchungen, um die Konstitution eines Probanden zu beurteilen. Durch die Zusammenhänge des neuronalen Netzes aus vegetativem, peripherem und zentralem Nervensystem ergibt sich hier auch eine schnelle Reaktionsfähigkeit beim Einwirken von z.B. starken elektromagnetischen Störungen, die einem ‚den Atem rauben’.

 

 

 

Dunkelfeld-Mikroskopie nach Aschoff

 

Die Dunkelfeld-Mikroskopie ist eine besondere Betrachtungsform von Objekten unter einem Hochleistungs-Mikroskop. Sie wurde für spezielle Diagnostikaussagen von Dr. Aschoff kreiert. Hierbei wird das Objekt nicht von unten sondern nur von schräg-seitlich-oben mit Licht bestrahlt, sodass sich die Objekte gegen ein dunkles Hintergrundfeld abzeichnen und sich somit räumlich darstellen. Diese Untersuchungsmethodik eignet sich so z.B. hervorragend um die Konsistenz der Häute vom Blutkörperchen und aber auch von der Koagulationsbestrebungen darzustellen. So wird mit dieser Methode auch gerne der ‚Geldrollen’-Effekt der Blutkörperchen dokumentiert. Gerade elektromagnetische Einflüsse können zu Verklumpungen und Verkettungen der ferromagnetisch reagierenden Blutkörperchen kommen. Störende oder auch entstörende Maßnahmen lassen sich so in der morphologischen Strukturierung des Blutes im Dunkelfeld aufzeigen.

 

 

 

Immunreaktion im Blut nach Spengler

 

Im Blut sind eine Reihe von Antikörpern aktiv. Je nach vorangegangener Infektion können dies ein ganzes Spektrum sein. Auf jeden Fall aber haben wir es mit Grippe-Antikörpern und mit solchen gegen Staphylokoggen zu tun. Außerdem gibt es noch die unspezifische, Monozyten gestützte Antikörperreaktion. Im Rahmen dieses Immuntestes werden in großen Crossover-Essays die Immunreaktion auf spezifische Reagenzien hin getestet. Abgesehen vom Erkennen wirklicher noch chronisch vorhandener Infektionen ist besonders die Reaktionsgeschwindigkeit der Koagulation von Grippe-Antikörper mit der Reagenz bei an sich normaler BSG, und somit die gesamte Konsistenz des Blutes im Mikroskop von Interesse. Durch die Beurteilung im Digital-Mikroskop lassen sich so sehr gute Vergleiche im Bereich von Störungen und Entstörungen ggf. darstellen. Koagulationsveränderungen bei normaler BSG sind bemerkenswert für die Reaktionsverfolgung.

 

 

 

Vergleichs–Diskrimminations-EEG nach Knop

 

Basierend auf den Erkenntnissen von Haffelder wissen wir, dass jede Stresserscheinung sich im Gehirn besonders in den Alpha- und Delta-Wellen niederschlägt. Die unterschiedlichen Reaktionen dieser Wellenbereich zeigt sich auch besonders in den unterschiedlichen Reaktionsaktivitäten der beiden Hirnhemisphären deutlich an. Daher kann über das Differenzverhalten der beiden elektrischen Aktivitätsmuster viel über Stress-Einwirkung bei Störungen und auch bei Entstörungen ausgesagt werden. Dazu ist es möglich, die Summenspannungen der beiden Hirnhälften getrennt abzugreifen und miteinander zu korrelieren – d.h. rechnerisch zu überlagern und dann die Abweichungen herauszurechnen und darzustellen. Diese Abweichungen können auch langzeitlich auf einen Schreiber gegeben werden, sodass die Abweichungen über den Verlauf genau zu verfolgen sind. Hier werden sofort die jeweiligen überaktivitäten einer Hirnhälfte sichtbar. Und zwar nach Seitenhälfte und dann noch nach Abweichungsmenge. Dies ist von besonderem Interesse, dass das Gehirn als zentrales Steuerung- und Koordinationsorgan (ZNS) sehr fein auf alle Einflüsse reagiert. Diese Methode ist sogar echtzeitfähig.

 

 

 

Psychonervale Vergleichs-Hautleitwert – abgewandelt nach Knop

 

So wie das Gehirn sofort auf Einflüsse jeglicher Art reagiert, regiert in der Folge die HRV und gleichfalls auch der psychonervale Hautleitwert. Auch hier werden in einer neuen Art beide Reflexe an der Peripherie jeweils links und rechts abgenommen und dann über eine Diskrimminationsschaltung analog miteinander verglichen. Abweichungen vom Mittelwert sind hier von Aussagekraft. Diese Abweichungen können auch auf einen Schreiber gelegt werden und somit über einen längeren Zeitraum die Reaktionen aufzeichnen. Da das System am eigenen Körper zu eichen ist, sind alle Abweichungen in Art und Höhe von Interesse. Dieses Verfahren wird ähnlich auch von aufwändigen ‚Lügendetektoren’ verwendet. Für Elektrosensibilität verwendet auch Prof. von Klitzing ein ähnliches Verfahren. Aussagen über elektromagnetische Belastungen und Entlastungen können sich hier abbilden. Dies ist besonders in der Aussage relevant, wenn parallel die HRV, das EEG und die Körperableitung vorgenommen werden.

 

 

 

Gefäß-Ultraschalldoppler

 

Der Ultraschalldoppler für die Beurteilung der Durchflussgeschwindigkeit in den Blutgefäßen ist schon ein Standard in den meisten Praxen. Mit dem Doppler kann man die Flussart in Geschwindigkeit und Strudelung hör- und aufzeichenbar machen. Der Blutstrom-Qualität ist abhängig vom Gefäßtonus und auch vom Herzzeitvolumen. Schon die Chinesen nutzten diese Beurteilung als Pulsdiagnose für die Beurteilung der Integrität der Lebenskräfte ihrer Patienten. Die Aufzeichnung auf einem Schreiber kann tiefe Rückschlüsse auf das nervale Zusammenspiel von vegetativen und peripheren Nervensystem geben. Damit auch Reaktionen auf z.B. elektromagnetische Störungen und Entstörungen ermöglichen, denn Gefäßtonus und Herzrhythmus reagieren sehr fein auf solche Einflüsse.

 

 

 

Hochfrequenzbeugung im Zytoplasma - abgewandelt nach Knop

 

Ein hochspannendes Verfahren ist die Hochfrequenzbeugung. Dieses Verfahren schleust ein fest definiertes amplitudenmoduliertes HF-Signal in den Körper. Mit spezifischen kontaktlosen Abtastsonden wird nun das austretende Signal mit dem Eingangssignal verglichen. Je weiter die beiden Signalformen von einander sich unterscheiden, so mehr liegen Störungen in der Signalausbreitung vor. Das HF-Signal muss einerseits das Zell-Kolloid durchlaufen und wird andererseits mit dem Zellmembranpotential konfrontiert. Jede änderung der Viskosität des Kolloids und auch jede änderung an der Membranspannung führt zu Veränderungen der austretenden Signalintegrität. Dieses Verfahren wird auch in de Werkstoffprüfung verwendet. Da Zellengewebe bei normaler Funktion normoton sind müsste die Ausbreitung homogen sein – ist sie es nicht, so liegen, lange bevor man dies normalerweise außen ersehen könnte, Störungen in der biophysikalischen und elektrochemischen Konsistenz der Zellplasmas mit Kolloid und Membran vor. Hier können im Summenfeld ggf. sehr fein elektromagnetische Einflüsse besonders thermischer und nicht-thermischer Art darstellbar sein. Hierzu wird ein besonders standardisiertes Abtastsystem flächig über dem Gesamtkörper angewandt, was vom KI entwickelt wurde.

 

 

 

Körperpotential-Ankoppelungs-Ableitung

 

Da der Körper zu rund 70 % aus Meerwasser besteht (0,9 %-ig), reagiert er wie eine große Antenne. Umgebungselektrizität und elektromagnetische Felder koppeln an den Organismus direkt an. Mit speziellen hochempfindlichen Voltmetern kann man diese Spannung gegen Erde abgeleitet messen. Diese Messung ist sehr wichtig zur Beurteilung einerseits der Konsistenz des Organismus in seinen flüssigen Phasen und deren Kompensationsfähigkeit und andererseits als Kontrollinstrument für die Stärke der körperintern aufgebauten Potentiale – damit man bei spezifischen Messungen, analog zur Kerntemperatur-Kontrolle – auch die Reaktionen miteinander vergleichbar machen kann. Die Höhe der messbaren Körperpotentiale ist aber auch ein Ergebnis der Spannungsverarbeitung und Kompensation an den Zellmembranen.

 

Hier werden auch Standardisierungen mit ausreichenden Probandenzahlen durchgeführt werden müssen, um klare Reaktionskennlinien unter verschiedensten Einflüssen zu erhalten. Weitere Rückschlüsse auf elektromagnetische Einwirkungen und die Auswirkungen auf das messbare Potential sind denkbar, müssen aber erst getestet werden.

 

 

 

Biologisch-vegetative Regulation (Ryodoku-AmpliGnost nach Knop)

 

Durch Dr. Voll wurde 1954 eine Methode der Messung von Akupunkturpunkten entwickelt: Die Elektroakupunktur (EAV). Darauf basieren heute viele ‚neue’ Methoden, wie IMEDIS, PROGNOS, HOLOGRAPHIE, BFD, VEGATEST etc. Alle haben aber die Unsicherheit der Messwertabnahme nicht gelöst, daher werden sie seitens der klinischen Medizin zurecht abgelehnt. Auch wenn das KI selbst über das Ur-Verfahren nach Voll verfügt, wird es nicht benutzt. Parallel zu Voll wurde in Japan vom Neurologen Prof. Nakatani eine neural-orientiertes Verfahren entwickelt; Das Ryodoraku. Dieses Verfahren arbeitete auf einer Vergleichsbeurteilung und war somit viel genauer als die EAV. Es lagen aber keine Standard-Werte vor. 1983 begann das KI mit der gezielten Erfassung von Standard-Werten zum Ryodoraku und konnte gesichert Vergleichs- und Abweichungs-Kurven 1989 publizieren. Daraus wurde dann durch das KI das Ryodoku-AmpliGnost weiterentwickelt. Da die methodischen Auswertungen sehr komplex sind, wurde das System noch nicht in den Markt eingeführt. Jedoch hat sich das I-Tronic-Team der Abberationskurven des KI bedient und vor Jahren ein System auf den Markt gebracht. Aber aufgrund der Schutzrechtslage konnten sie weder die durch das KI inaugurierten Messpunkte verwenden noch die dafür notwendige spezielle Flüssigkeitselektrode. Das AmpliGnost misst die Quellpunkte der Meridiane, nach Eichung des systems am Körper selbst. Zur Messwertabnahme wird die spezielle Flüssigkeitselektrode verwendet, die den übergangskontakt nicht auf der Haut sondern erstmals konstant innerhalb der Elektrode herstellt. Dadurch sind alle Probleme der Messwertaufnahme, die es regelmäßig bei der EAV und deren Folgeverfahren gibt, ausgeschaltet. Die Wertabnahme ist reproduzierbar. Dazu kommt, dass diese Werte jetzt nach der gefundenen Abberations-Kurve individuell bereinigt werden und somit auch eine echte Vergleichsmöglichkeit von Messung zu Messung ermöglicht. Der gefundene Mittelwert der gefundenen Abberationsbereinigung wird nun zur Basis der Patienten-Abweichungen im individuellen Energieverteilungsmuster genutz. Damit ist das System in der Lage die Energieverteilung als echte Bioenergiebeurteilung auch graphisch darzustellen. Diese Aussagemöglichkeit ist so auch die Basis des I-Tronic geworden.

 

 

 

Visual-Analog-Skalierung (VAS-Test) – ‚Amsterdamer Skala’ – abgewandelt nach Knop

 

Aus der Schmerztherapie ist die VAS-Testung bekannt und wird auch erfolgreich zur Verlaufsbeurteilung von Schmerzattacken und deren Verlaufscharakteristik verwendet. Der Test, der auch als Amsterdamer Skala bezeichnet wird, nutzt die Visualisierung des Schmerzes mittels einer psychologisch adäquaten Farbe. Je mehr Schmerz, desto mehr Farbe erscheint in einem Fenster in dem VAS-Schieber. Das Besondere ist daran, dass auf der Rückseite in einem analogen Fenster nicht eine Farbe erscheint, sondern eine 10er-Skalierung, die wiederum in 10er Schritte unterteilt ist. Damit wird das visualisierte Phänomen analog skaliert ablesbar; es entsteht ein Wert mit einer Kommastelle. Das KI hat nun das ganze als ‚Wohlbefindens-Skala’ um entwickelt und auch eine adäquate neue Visual-Farbe eingeführt. Damit lassen sich jetzt mit ebenfalls einer Genauigkeit um 5 % subjektive Empfindungen im ‚Wohlfühl’-Bereich analog in Zahlen darstellen.

 

Diese Testung wird bei Belastungsstudien standardmäßig einzusetzen sein.

 

 

 

Keimwachstum

 

Bakterien, die zum Beispiel regelmäßig auch in der Luft vorkommen, kann man sehr fein im Wachstum beobachten, wenn man sie auf Nährböden, z.B. Agar-Agar, einfängt und dann über einen bestimmten Zeitraum züchtet. Interessant wird das ganze aber besonders, wenn man synchron Nährböden besiedeln lässt und diese dann unter unterschiedlichen Einflüssen züchtet – z.B. durch Verwendung verschieden aufbereiteter Lösungen oder Wasserphasen, durch Beeinflussung mit elektromagnetische Störungen bzw. auch durch Beeinflussung mit entstörenden Maßnahmen. Die Keime als biologische Mikroorganismen haben einen schnellen Stoffwechsel und einen schnellen Generationswechsel, sodass Einwirkungen sich schnell auf das Wachstum der Population auswirken und somit auch erfasst werden können. Im Zusammenhang mit der Digital-Mikroskopie können solche Wachstumsprozesse auch bequem dokumentiert und bildlich ausgewertet werden. Hier kommt es auf die Vermehrung an.

 

 

 

Elektrochemisches Messlabor

 

Die EQC ist ein elektrochemisches Messlabor, das seine Tätigkeit verstärkt auf die Messung von Lebensmitteln, Böden und Komposten verlagert hat. Zur Qualitätsdifferenzierung zwischen verschiedenen Produkten wird dabei speziell dem Redoxpotential eine erhöhte Aussagekraft beigemessen, welches direkt mit der Freien Energie eines biologischen Systems korreliert ist. Abgeleitet aus den beiden Hauptsätzen der Thermodynamik kann gezeigt werden, dass ein niedrigeres Redoxpotential mit einem höheren Ordnungsgrad in einem System korreliert.

 

Das Redoxpotential repräsentiert ein Maß für das Fließgleichgewicht oxidierter zu reduzierter Substanzen im wässrigen Milieu. Es ist ein messbarer Summenparameter, der Informationen über die Elektronenenergie eines Mediums liefert, ohne dass man die Einzelstoffe kennen muss. Träger dieser Energie sind u.a. die sekundären Pflanzenwirkstoffe wie Vitamin C, die Phenole und die Flavonoide. Im Gegensatz zu Pflanzen, die ein Maximum am Inhaltsstoffen durch eine optimale Adaption an die Umgebung erreichen, benötigt der menschliche Körper energiereiche Verbindung aus Lebensmittel, um Ordnungsstrukturen aufzubauen und chaotische Prozesse im Körper zu minimieren.

 

Mit der Aufnahme von Lebensmitteln erfolgt über die Verdauung ein schrittweiser Abbau von elektronenreichen Verbindungen (Redoxpotential NADH/H ca. –500 mV) bis zur Bindung an Sauerstoff ( ca. + 750 mV). Je niedriger der Redoxwert ist, desto größer ist die Fähigkeit eines Lebensmittels, Elektronen abzugeben und einen Beitrag zur Deaktivierung von Freien Radikalen zu leisten. Basis für diese überlegung sind zahlreiche Messungen, die einen Zusammenhang zwischen niedrigem Redoxpotential und stressfreier Erzeugung von Produkten belegen.Neuere Messergebnisse liefern einen Hinweis auf den direkten Zusammenhang zwischen dem Redoxpotential im Boden und dem Redoxpotential in den darauf gewachsenen Produkten. Alle diese Messungen sind ein Indiz dafür, dass mit Hilfe des Redoxpotentials die Qualität vom Boden bis zum Fertigprodukt verifiziert werden kann. Ein typisches Beispiel für den Einfluss des Bodens auf die Qualität von Kartoffeln zeigt die Graphik. Auch eine Optimierung des Bodens wäre mit dieser Messmethode möglich.

 

 

 

Pflanzenwachstum

 

Letztlich ist ein weiteres gutes Instrument zur Beurteilung von elektromagnetischen Ein- und Auswirkungen das Keimungsverhalten von Roggen-Keimen in normalen Böden. Hierzu werden in mehreren Schalen mit gleichen Böden jeweils die gleiche Anzahl von Roggen-Keimen angesetzt. Das Wachstum wird mit zeitgesteuerten Wachstumslampen standardisiert. Nun können in den verschiedenen Populationen unterschiedliche Einflüsse, immer gegen eine Kontroll-Population beurteilt, zugeführt werden. Dies können elektrische Felder sein, aber auch elektromagnetische Bestrahlung wie auch besonders aufbereitetes Wasser, was zum täglichen Gießen notwendig ist, kann Verwendung finden. Nach einem bestimmten Zeitraum werden dann alle Roggen-Pflanzlinge geerntet und in einem mehrstufigen Zählfeld nach der Wachstumsgröße sortiert verteilt. Damit ergibt sich ein standardisierbares Zählungssystem, was die einzelnen Populationen in ihrem Wachstumsverhalten einfach beziffern lässt. Hier kommt es auf die Wachstumsfähigkeit an.

 

 

 

Die Roggen-Pflanzlinge können dann aber zusätzlich auch mit der refraktometrischen Methode auf z.B. gelöste Zuckeranteile hin untersucht und beurteilt werden. Das gibt zusätzliche Erkenntnisse über die Zell-Qualität der Roggen-Pflanzlinge.

 

Der GFG stehen somit direkt aufgeführten breitgefächerten, hoch differenzierte Mess- und Analyse-Methoden zur Verfügung, die in dieser Breite, auch mit der entsprechend vorhandenen Fachkompetenz an Personal, nur in Ausnahmefällen zusammen in einem Labor nutzbar sind. In der Studienarbeit der GFG werden z.T. bis zu 7 Methoden in einer Testreihe synchron angewendet, um möglichst Ergebnisse mit multiplen Parameter-änderungen erfassen zu können. Nur dadurch lassen sich weitergehende Beurteilungen erstellen.

 

 

 

Dieser Labor-Test-Umfang ist daher auch geeignet, gemäß der Hyland-Vorgabe multiple Test-Modelle aufzubauen, die gerade die nicht-thermischen, also nicht Leistungsflussdichte bezogenen Effekte im Zusammenhang mit Mobilfunk und Elektrosmog aufzudecken. Hier entsprechende Mess-Modelle mit normalen Labor-Methoden zu finden wird die anspruchsvolle Hauptarbeit der GFG in den nächsten Jahren sein. Es muss so aber auch Methode für Methode und auch die einzelnen Kombinationsmöglichkeiten Schritt-für-Schritt getestet und beurteilt werden. Diese gefundenen, funktionierenden und reproduzierbaren Modelle sind dann nach Hyland auch aussagekräftig und nutzbar.

 

Das RDFM® (Raster-Dual-Feld-Messverfahren) zeigt eine räumliche Wirkung von Funknetzen.

 

 

Die direkte hochfrequente Strahlungsdichte von externen Mobilfunknetzen ist einer Reihe von Faktoren unterworfen. Sie schwankt ständig und lässt sich auch aufgrund ihrer Frequenzschnelligkeit von mehr als 1 Milliarde Schwingungen pro Sekunde messtechnisch nur mit großem Aufwand ermitteln. Eine identische Reproduktion der Feldgegebenheiten ist kaum möglich

 

 

 

Die indirekten, räumlichen Auswirkungen von internen Funknetzen oder eigenen Mobilfunkgeräten auf das Erdmagnetfeld und elektrische Hausstromfelder lassen sich hingegen sehr genau und reproduzierbar messen.

 

 

 

Die Geophysikalische-Forschungs-Gruppe e.V. (GFG) führt hierzu duale und synchrone Messungen in einem Rasterfeld mit mindestens 25 festen Messpunkten durch. Es kann so die Homogenität eines geomagnetischen oder elektrischen Feldes sowie jegliche Veränderung sehr gut dargestellt werden. Das geomagnetische Feld wird dabei in Mikrotesla (µT), das elektrische Wechselfeld (NF) in Volt pro Meter (V/m) in jeweils drei dualen Messdurchläufen exakt vermessen:

 

 

 

  •     Duale Messungen: Bestimmung des Leerfeldes (= Normfeld unter Laborbedingungen)
  •     Duale Messungen: Das zu untersuchenden Handy (= Vormessung)
  •     Duale Messungen: Dasselbe Handy + Gabriel-Chip für Handys (= Nachmessung)

 

 

 

Es wird also bei jedem Durchlauf doppelt gemessen. Zuerst wird jeweils an den 25 Rasterpunkten die vertikale Komponente der geomagnetischen Flussdichte B in µT bestimmt und folgend an denselben Rasterpunkten in der gleichen Reihenfolge auch die elektrische NF-Feldstärke in V/m. Die insgesamt 150 Werte aller Messdurchläufe werden dokumentiert und archiviert.

 

 

 

Bei den Messdurchläufen 2. und 3. ist das jeweilige Mobilfunkgerät Handy oder SmarthPhone mit einer Test-SIM-Karte ausgestattet und alle möglichen Funkübertragungen (Wireless-LAN, Bluetooth) sind aktiv. Eine kontinuierlich gleichbleibende Leistungsabgabe von elektromagnetischer Strahlung ist somit während den Labormessungen gewährleistet. Das bedeutet, dass bei der normalen Nutzung diese hier zugrunde liegenden Leistungsdaten normalerweise nicht oder nur selten erreicht werden. Umgekehrt zeigen die Messdaten eindrucksvoll, dass durch die Gabriel-Technologie selbst bei höchstmöglicher Leistungsstufe eine weitreichende messbare Entstörungswirkung erzielt wird.

 

 

Durch eine mathematische Verrechnung beider Feldwerte wird als grafische Verdeutlichung ein sich ergebendes effektives Wirbelpotential in µW/m² (NF) dargestellt.

 

 

Die Geophysikalische-Forschungs-Gruppe verdeutlicht:

 

Elektromagnetische Wellen nehmen in der Art Einfluss auf magnetische Gleichfelder und niederfrequente elektrische Wechselfelder, dass sich Wirbelpotentiale (HotSpots) bilden. Wird die Gabriel-Technologie als zusätzliche Komponente in die Feldgegebenheiten eingebracht reduzieren sich diese Einflüsse, und somit auch das Wirbelpotential.

 

 

Baubiologischen Richtwerte liegen zurzeit ausschließlich für Schlafbereiche als SBM-2008 und SBM-2003 vor. Es sind für elektromagnetische Wellen (HF) Belastungen als Strahlungsdichte in µW/m² definiert. Für eine sinnvolle Beurteilung des mathematisch errechneten effektiven Wirbelpotentials in µW/m² (NF) legt die GFG hilfsweise die Baubiologischen Richtwerte SBM-2003 zugrunde. Belastungen werden hier mit Anomalien verglichen, dieses entspricht der Beurteilung von niederfrequenten Potentialen. Den in den SBM-2003 vorgegeben Richtwerten für gepulste elektromagnetische Wellen (HF) hat die GFG zur besseren grafischen Darstellung eine entsprechende Farbskala zugeordnet, nach der die Werte des Wirbelpotentials (NF) dann in Bezug gesetzt und farbig abgebildet werden.

 

 

 

Ebenso werden die Abweichungen der effektiven Wirbelpotentiale zum Normfeld mathematisch bewertet und grafisch dargestellt. Jeweils Mobilfunkgerät ohne Entstörprodukt und Mobilfunkgerät mit der Gabriel-Technology PlatformTM .

 

Aus rechtlichen Gründen weisen wir darauf hin, dass es sich bei unseren Produkten weder um Arzneimittel noch um Medizinprodukte handelt.

Impressum