Substanzen Gesundheit

Fake Reviews im UGL-Markt erkennen: Muster, Spuren und der Telegram-Deal hinter 5 Sternen

Im April 2026 dokumentiert ein MESO-Rx-User mit dem Handle sokurovsky eine konkrete Beobachtung zu einem US-Vendor namens keytech. Die Auffälligkeit war ein Review-Muster auf eroids.com, einer externen Review-Plattform, die in UGL-Kreisen seit Jahren im Verdacht steht, Rankings gegen Gratis-Produkte zu vergeben. sokurovsky formulierte die Beobachtung nüchtern: “current lack of any negative reviews on eroids seems sus” (Thread). Kein negativer Eintrag, obwohl die Produktpalette gross und die Reviewzahl hoch war.

Zwei Absätze weiter legt er nach: “they offer a free kit of their GH if you meet certain criteria on eroids and give a 5 star review”. Gratis-Wachstumshormon im Tausch gegen Fünf-Sterne-Review. Schwarz auf weiss, auf dem grössten englischsprachigen UGL-Forum, mit Telegram-Screenshots als Beleg. Das ist halt die eine Seite der Review-Ökonomie. Dieser Artikel zerlegt die andere: Wie UGL-Vendors Reviews manipulieren, welche Spuren die Manipulation hinterlässt und wie Forum-Veteranen gelernt haben, echte von gekauften Urteilen zu trennen.

Der keytech-Fall und der Telegram-Kanal mit dem Preisschild

Der Sachverhalt im sokurovsky-Thread ist aus mehreren Gründen ein Lehrstück. Erstens weil er dokumentiert ist. Zweitens weil er die gesamte Kette zeigt: auffälliges Rating-Muster, Einblick in den Vendor-Kommunikationskanal, Produkt-Forensik über ein geklautes Bild. Drittens weil der OP nicht behauptet, sondern aufzeigt.

Die Kette begann mit einem statistischen Verdacht. Ein Vendor, der dauerhaft in den Top-Rankings steht, sammelt in einem gesunden Ecosystem zwangsläufig auch negative Erfahrungen. Versandprobleme, schlechte Chargen, verzögerte Antworten, irgendein Detail aus tausenden Transaktionen. Wenn das komplett fehlt, liegt nicht Qualität vor, sondern Filterung. Der Forum-Veteran sokurovsky formulierte das nüchtern mit dem “seems sus”-Post und zog daraus die nächste Frage: Wo sitzt der Filter?

Die Antwort fand er im Telegram-Kanal des Vendors. Dort lief laut OP die konkrete Ansage, welche Bewertungsstufe mit welchem Gratis-Produkt belohnt wird. “Free kit of their GH” meint ein komplettes HGH-Kit, das in legalen Kanälen irgendwo zwischen 150 und 400 Euro Verkaufswert hat. Gegen diesen Betrag tauscht der Kunde einen Klick auf Fünf-Sterne und idealerweise zwei Sätze Lob. Ökonomisch ist das ein klassischer Quid-pro-quo-Deal. Juristisch je nach Land Verstoss gegen Werberecht. Für das Review-Ranking ein effektives Instrument zur Unterdrückung der Realität.

Was den Fall forensisch abrundet, ist ein drittes Detail. Der OP prüfte die Produktfotos, die keytech in seinen Forum-Posts verwendet hatte, und stellte fest: “very clearly an SSA peptide kit”. Die Bilder stammten nachweislich von peptide-sciences, einem unabhängigen US-Anbieter mit anderem Logo und anderer Verpackung. Die Diskrepanz ist die Art von Spur, die ein einzelnes kritisches Auge innerhalb von zehn Minuten findet, wenn es die richtige Frage stellt. Was soll man machen? Eben, die Frage stellen, bevor die Kohle weg ist.

Ein anderes Muster betrifft nicht Bewertungen, sondern die Identität der Vendors selbst. Im MESO-Rx-Thread “QSC is operating second account under fake NEW VENDOR name ChenFengBiotech Co Ltd” beschreibt der User 29trt eine Methode, die auf den ersten Blick absurd simpel ist und trotzdem funktioniert.

Zwei Vendor-Accounts mit unterschiedlichen Namen, unterschiedlichen Registrierungsdaten und unterschiedlichen Produkten. Aus Sicht der Moderation sind das zwei getrennte Marktteilnehmer. 29trt bemerkte einen Hinweis auf einen gemeinsamen Backend: Wenn er auf dem iPhone den Mail-Link der angeblich frischen ChenFengBiotech-Adresse gedrückt hielt, zeigte die Link-Preview eine andere Zieladresse, nämlich “meso-rx@sigmachemical.com.cn”, die dem länger etablierten Vendor QSC (Qingdao Sigma Chemicals) gehörte (Thread).

Der Trick dahinter ist Standard-Mobilfunktionalität. iOS zeigt beim langen Druck auf einen Mailto-Link eine Action-Vorschau, die die tatsächliche Zielmailbox anzeigt. Wenn ein Vendor seine Kontakt-Mail über einen HTML-Alias routet, bleibt der sichtbare Teil hübsch, die Preview enttarnt den Alias. Das ist keine Hacker-Technik. Das ist halt ein UI-Element, das die meisten User nicht kennen, weil sie keinen Grund hatten, es auszuprobieren.

Der Post ging noch weiter. Die Bilder in der Unternehmens-Bio des angeblich neuen Vendors waren nach Auskunft des Thread-Erstellers nicht aus dem eigenen Labor, sondern aus Produktlistings chinesischer Grosshandels-Plattformen. “Those pictures they provided in their intro bio are not actually from their labs. They are pictures you can find on Chinese trading websites.” Die Aggregation beider Befunde ergab das Bild eines Sockpuppet-Vendors, der einen frischen Namen als Risikoventil für den älteren Account nutzt. Wenn die ältere Marke wegen Qualitätsproblemen verbrannt ist, wandert der Traffic zur neuen Marke, derselbe Backend liefert weiter.

Warum die perfekte Bewertung der erste rote Flag ist

Eine der konsequentesten Lehren aus den ausgewerteten Threads lautet: Misstraue jedem Review-Set, das keinen einzigen kritischen Eintrag enthält. Der Grund ist nicht moralisch, sondern statistisch. In einer Übersicht über sechs unabhängige 1-Stern-Reviews zu eroids.com auf Trustpilot erklären Nutzer in einer seltenen Einigkeit dasselbe Grundmuster: Negative Posts werden gelöscht, und Vendors, die nicht mehr liefern, fallen aus dem Ranking.

Matt Foley formulierte es am 26. Mai 2022 direkt: “Their rating system is based mostly on the Administrator’s getting free stuff and when an [supplier stops giving free items] eroids responds by taking them out of the top 10” (Trustpilot). Leeann Johnson schrieb am 15. August 2019: “Totally fake reviews they are connected with bogus companies. Fake newbies recommend scam sources, then post positive reviews.” Umar Rodriguez ergänzte in einem Post vom 28. Mai 2019: “They have 4 sites up in their rankings which they use to scam every new member of the site. Of course, any comments warning people about the scam are quickly deleted by eroids staff” (Trustpilot Page 3).

Sechs unabhängige Reviewer, drei verschiedene Jahre, dieselbe Beschreibung des Ablaufs. Das ist kein Einzeltrauma, sondern ein wiederkehrendes Vorbringen. Du musst diesen Reviews nicht blind glauben, schliesslich könnten auch sie manipuliert sein, aber das Signal ist konsistent genug, um als Arbeitshypothese zu taugen: Review-Plattformen mit opakem Ranking-Mechanismus und ohne Abgangs-Kriterien für einmal eingesetzte Top-Vendors sind strukturell manipulierbar.

Drei kurze Sätze zur Einordnung. Eroids ist alt. Eroids ist gross. Eroids hat den Branchenstandard lange mitgeprägt. Genau deshalb sind diese Vorwürfe nicht Belanglos-Kritik, sondern ein Indikator dafür, wie viel Arbeit in der Unterscheidung von Signal und Manipulation steckt.

Stock-Image-Forensik in vier Minuten

Der zweite Einstieg, den Forum-Veteranen routinemässig fahren, ist die Bildrückwärtssuche. Die Methode ist trivial, der Aufwand minimal, der Nutzen hoch. Beispiel aus dem keytech-Thread: Der OP erkannte die reinkopierten Produktfotos, weil er selbst schon Peptide-Sciences-Produkte in der Hand gehabt hatte und die charakteristische Verpackung nicht passte. Wer die Marke nicht kennt, kommt über die Google-Bildersuche oder Tineye ans selbe Ziel.

Das Muster, das sich aus QSC-Thread und keytech-Thread gemeinsam ergibt, lässt sich knapp beschreiben. Vendor-Posts enthalten Produktfotos. Produktfotos werden oft aus Stock-Quellen übernommen. Stock-Quellen lassen sich rückwärts suchen. Eine vom Vendor behauptete Eigenproduktion, die auf chinesischen Grosshandelsseiten wie 1688.com identisch auftaucht, ist keine Eigenproduktion. Wer solche Bilder erkennt, hat einen Vendor-Post in wenigen Minuten entlarvt, ohne dass ein einziges Lab-Test-Ergebnis auf dem Tisch liegen musste.

Das Interessante an dieser Technik ist, dass sie gegen das Trägheits-Problem der Foren arbeitet. Forum-Leser scrollen. Sie lesen Werbe-Intros, Preislisten und Rabatt-Posts. Sie prüfen selten, ob die Bilder zur Behauptung passen. Ein sauberer Rückwärts-Check bricht genau diese Trägheit und stellt die eine Frage, die Vendor-Marketing am härtesten trifft: Ist dieses Bild deins? Die meisten Scam-Konstellationen fallen an dieser Frage auseinander, weil die Antwort “Nein, das ist von Alibaba” dokumentierbar ist und keine Gegenrede zulässt.

Was die Forschung über Fake-Review-Cluster weiss

Academic Literatur zu Fake-Review-Detection ist in den letzten fünf Jahren stark gewachsen, auch wenn der UGL-Markt in den Studien selbst nie vorkommt. Die Befunde übertragen sich trotzdem, weil die Mechanik dieselbe ist: Zentrale Akteure kaufen Reviews ein, die Käufer agieren in Netzwerken, und diese Netzwerke hinterlassen strukturelle Spuren.

Die bisher belastbarste empirische Arbeit stammt aus einem Team um He, Hollenbeck, Overgoor, Proserpio und Tosyali und wurde 2022 in den Proceedings of the National Academy of Sciences publiziert (DOI: 10.1073/pnas.2211932119, PMID 36378645). Die Autoren analysierten tausende Amazon-Produkte, deren Fake-Review-Einkauf über private Facebook-Gruppen dokumentiert war, und trainierten ein Random-Forest-Modell auf Reviewer-Netzwerk-Features. Kernbefund: “fake review buyers are highly clustered in the product reviewer network”. Produkte, die gekaufte Reviews einsetzen, teilen sich einen auffallend überlappenden Stamm von Rezensenten. Die gleichen Accounts tauchen bei verschiedenen Produkten auf, die gleichen Freundes-Cluster wandern mit.

Der praktische Schluss für einen Forum-Leser: Wer einen Vendor bewerten will, sollte nicht die Bewertung lesen, sondern die Bewerter. Welche anderen Vendors hat dieser User noch empfohlen? Wie alt ist sein Account? Wann wurde er aktiv? Posten drei angeblich unabhängige User zeitlich clusternd positiv über denselben Vendor, spricht das für ein koordiniertes Muster, nicht für organische Kundenstimmen. Der Begriff “Coincidence Review” ist in Forum-Slang für genau diese Häufungen gebräuchlich.

Eine zweite einschlägige Arbeit ist die 2023er PLoS-One-Studie von Constâncio et al. über Deception Detection mit Machine Learning (DOI: 10.1371/journal.pone.0281323, PMID 36757928). Die Systematic Review erfasst 117 unterschiedliche Feature-Typen, die in der Forschung zur Täuschungserkennung verwendet werden, und ordnet sie neun Modalitäten zu. Kernerkenntnis: Multimodale Ansätze (Text plus Metadaten plus Verhalten) schlagen monomodale konsequent. Die Autoren flaggen allerdings ein Methoden-Problem. 70 Prozent der ausgewerteten Datensätze seien in Lab-Settings generiert, nur 30 Prozent stammten aus realen Szenarien. Wer auf automatisierte Shill-Detection-Tools wartet, wartet also vergebens, solange die Datenbasis so dünn bleibt. Forum-Leser sind daher weiterhin auf Heuristiken angewiesen, die sie selbst anwenden.

Die praktische Konsequenz beider Arbeiten läuft auf einen Punkt hinaus: Deception-Marker in Sprache sind grundsätzlich messbar, sie sind aber kontextabhängig und in spezialisierten Nischen wie dem UGL-Forum nur mit Heuristiken statt mit fertigen ML-Tools greifbar. Genau deshalb bleibt das Lesen eines Threads mit eigenem Kopf der Goldstandard.

Die Red-Flag-Schule der Forum-Veteranen

Die MESO-Rx-Diskussion um NapsGear läuft auf Page 125 des offiziellen Review-Threads und zeigt, wie aggressiv die Community um Evidenz ringt, wenn ein Vendor unter Shill-Verdacht steht. Der User warp nimmt den Vendor in Schutz: “people calling shill to another people are the actual shills, providing zero evidence about the shit they post”. Die Gegenseite, vertreten durch jolter604 und crossfitisgay, argumentiert nicht emotional, sondern mit einer konkreten Forderung: “go donate and put down your name warped at www.anaboliclab.com and order some labmax kits”. Und weiter: “if you are not here to contribute real proof or anything besides your pack came just leave” (Thread).

Hand aufs Herz, die Konfrontation ist grob, aber sie legt den Community-Standard offen. In der beobachteten Forum-Kultur zählt ein Pack-Ankunfts-Foto nichts. Ein Labmax-Test sagt mehr als zehn positive Reviews. Ein AnabolicLab-gespendetes HPLC-Ergebnis ist der Maximum-Beleg. Der Satz “your pack came” ist in dieser Sub-Kultur praktisch ein Code für unseriöse Quellen-Werbung. Wer nur die Ankunft bestätigt, liefert keinen Qualitätsnachweis, sondern maximal einen Nachweis, dass der Vendor ein funktionierendes Versand-System hat. Die Differenz zwischen “gekommen” und “gut” ist der Raum, in dem Fake Reviews operieren.

Aus der Auswertung der Primärquellen ergibt sich eine knappe Heuristik-Liste, die Forum-Veteranen ausdrücklich oder implizit anwenden. Sie zerfällt in fünf Punkte.

  1. Account-Alter und Post-Historie prüfen. Neue Accounts mit ausschliesslich positiven Vendor-Posts sind das klassischste Shill-Muster. Ein Reviewer ohne Bloodwork-Threads, ohne Cycle-Diskussionen, ohne Training-Posts hat keine nachweisbare Realexistenz ausserhalb des einen Vendor-Lobs.
  2. Nach Lab-Tests verlangen, Pack-Shots ignorieren. Das harte Qualitätskriterium ist eine datierte HPLC-Analyse, die unabhängig beauftragt wurde. Alles darunter zählt als weiches Signal.
  3. Rückwärtssuche auf Produktbildern fahren. Tineye und Google-Bildersuche reichen. Ein Vendor-Bild, das identisch auf 1688 oder peptide-sciences existiert, ist kein Eigenprodukt.
  4. Review-Sets auf Anomalien scannen. Komplett fehlende negative Reviews, identische Formulierungen (“fast shipping, will order again”), zeitnahes Clustering mehrerer Empfehlungen. Das sind die Features, die He et al. 2022 als “clustered network” modellhaft beschrieben haben.
  5. Mail- und Kontakt-Aliase prüfen. Der iPhone-Mail-Link-Trick von 29trt funktioniert überall dort, wo Vendors über HTML-Aliasse arbeiten. Auf Desktop-Mail-Clients zeigt der “Sender”-Header oft dieselbe Info.

Die Liste ist kein Ersatz für echte Qualitätskontrolle, aber sie filtert den gröbsten Teil weg, bevor Geld fliesst. Alle fünf Punkte lassen sich in zehn Minuten abhaken.

Fake-Review Red-Flag-Scanner

Red-Flag-Scanner fuer Vendor-Reviews

Hake alle Punkte ab, die auf den Review oder den Vendor zutreffen, den du gerade pruefst. Die Checkliste basiert auf den ausgewerteten MESO-Rx-Threads und den Detektions-Features aus He et al. 2022 (PNAS).

So sind diese Daten entstanden

Die ausgewerteten Primärquellen umfassen vier Forum-Threads auf MESO-Rx (thinksteroids.com), abgefragt am 11. April 2026 per Direkt-Fetch der öffentlichen Thread-URLs. Im Einzelnen: der keytech-Erfahrungsthread 134430210, der QSC-Sockpuppet-Thread 134415813 (Seite 2), der NapsGear-Review-Thread 134344174 (Seite 125) und der Rules-Discussion-Thread 134350225. Alle Zitate sind wörtlich übernommen und mit Username versehen.

Die externen Reviews stammen aus der Trustpilot-Produktseite zu eroids.com, Subdomains uk.trustpilot.com und au.trustpilot.com, Seiten 1 bis 3. Aufgenommen wurden ausschliesslich 1-Stern-Reviews, die explizit Review-Manipulation, Sockpuppet-Accounts oder Incentive-Strukturen nennen. Reine Lieferbeschwerden wurden aussortiert. Der Datenstand ist April 2026.

Die drei zitierten Studien sind: He et al., PNAS 119(47):e2211932119, 2022; Constâncio et al., PLoS One 18(2):e0281323, 2023; Verma et al., Front Big Data 8:1581734, 2025. Alle drei sind peer-reviewed und per DOI verifizierbar. Die Zitationszahlen stammen aus PubMed zum Abfragedatum 11. April 2026.

Limitationen, die ehrlich benannt gehören. Erstens: Es gibt keine deutschsprachigen Primärquellen zum Thema Shill-Detection mit ausreichender Datendichte, weshalb der gesamte Artikel auf englischsprachiges Material zurückgreift. Die Mechanik ist jedoch grenzüberschreitend, da die relevanten Vendors international operieren und die DACH-Community seit Jahren primär auf englische Foren zurückgreift. Zweitens: Trustpilot-Reviewer sind öffentlich, aber nicht verifiziert. Die Möglichkeit, dass auch unter den 1-Stern-Bewertern Sockpuppets sind, lässt sich nicht ausschliessen. Deshalb zählen die sechs Einträge nur als Konsistenz-Indikator, nicht als Einzelbeweis. Drittens: Automatisierte Fake-Review-Detection ist laut Constâncio-Review stark von Lab-Datensätzen abhängig, die den UGL-Markt nicht abbilden. Der Transfer der ML-Befunde auf Foren ist daher plausibel, aber nicht empirisch belegt.

Aktualisiert am 11. April 2026. Querverweis auf die vorausgehenden Artikel dieser Serie: UGL-Foren-Übersicht Meso, Reddit, Lifters und Sponsored Sources und Bestechung im UGL-Markt.