Controlling 21
Dr. J. Schuhmacher
Auch Ihr Internet-Auftritt ist in Gefahr.
Die seit 2015 in den USA tätige Firma OpenAI war die erste bedeutende KI-Firma, welche mit ihren großen Sprachmodellen (LLMs - Large Language Models) seit Herbst 2023 Furore machte und begann, die Welt umzukrempeln. Mit ca. 1.700 Mitarbeitern war sie 2025 bereits ein sehr große KI-Firma, die mit ihren ständig neu eingesammelten Milliarden-Beträgen auch andere Firmen aufkaufte und massiv weltweit expandierte.
Um es gleich klarzustellen: Ich war und bin sowohl der neuen Entwicklung als auch den Möglichkeiten der KI (Künstlichen Intelligenz, AI, Artificial Intelligence) positiv gegenüber eingestellt. In allen meinen Artikeln (vor allem zur Wirtschaft) dazu verteidigte ich seit Jahren sowohl die Technologie als auch die Firmen sogar gegen unberechtigte und teilweise hirnlose Angriffe. Deshalb darf ich mir nun auch erlauben, - mittels Fakten und Belegen - auf 2025 aufgetretene unhaltbare Zustände hinzuweisen, welche vermutlich bald viele Menschen negativ betreffen werden.
Man kann sich gegen KI nicht wehren. Denn die meisten KI-Modelle wurde schon seit vielen Jahren im Internet trainiert. D.h. deren eigene Suchmaschinen, Bots, Web-Crawler, Spider oder wie sie deren Datensammler nennen, welche ähnlich die der Suchmaschinen arbeiten, haben definitiv schon lange einmal alle meine und auch Ihre Texte, Fotos, Grafiken etc. im Internet durchsucht, heruntergeladen, analysiert und für die eigenen Zwecke der KI ausgewertet. Dagegen hatte ich nie etwas - so wenig, wie ich gegen 'schlechtes' Wetter ankämpfe, weil es sinnlos wäre.
Jedoch traten nicht nur bei mir, sondern weltweit in immer größerem Ausmaße Abrufe jener Suchmaschinen auf, welche meine Server und die von mir betreuten Auftritte meiner Kunden sinnlos belasteten. Denn deren Datensammler kamen oft wöchentlich vorbei, was sich definitiv für das Training der KI-Modelle kaum lohnt. Deshalb habe ich seit 2023/24 (wie andere auch) sowohl einen sogenannten ai.txt in das Wurzelverzeichnis aller Internet-Auftritte gestellt als auch die sogenannte robots.txt erweitert.
Beim ai.txt handelt es sich um ein von exakt jenen KI-Firmen weltweit anerkannten De-facto-Standard, den sie angeblich beachten wollen. Dabei handelt es sich um eine einfache Text-Datei, in welche man hineinschreiben kann, was man erlaubt respektive nicht mehr erlauben will. Sie dürfen meine eigene ai.txt dieses Auftrittes gerne lesen, kostenlos und lizenzfrei verwenden und auch weitergeben.
In der ersten Zeile steht: User-Agent: *
. Dies bedeutet, dass das Folgende in allen weiteren Zeilen darunter somit für alle denkbaren KI-Suchmaschinen / -Crawler etc. ausnahmslos gilt.
Dann folgen viele Zeilen mit Disallow: *.
sowie der Dateiendung - z.B. 'txt'. D.h. alle denkbaren Dateinamen vorne (vor dem Punkt) und mit der Datei-/Typ-Erweiterung (hier .txt) sind verboten abzurufen und / oder zu untersuchen. - Selbstverständlich gehören zu der Liste auch '*.html' und '*.htm'.
Schließlich folgen ganz am Ende zur Sicherheit nochmals Disallow: /
, womit alle Verzeichnisse der Hauptebene (Root) und alle Unterverzeichnisse gesperrt werden, sowie Disallow: *
, wodurch alle weiteren denkbaren Dateiformen verboten werden.
Da alle KI-Firmen gelobten, sich an den Inhalt dieser ai.txt zu halten, sollte damit im Grunde alles geklärt sein. - Die Kurzfassung lautet: 'Sie dürfen nichts durchsuchen und nichts auswerten.' - Erstaunlicher Weise hielten sich auch viele Firmen daran und durchsuchten daraufhin meine Auftritte zumindest seltener. - Korrekt gelesen. Weder hielten sich alle daran noch hielten sich die Anderen immer daran. Aber damit war mein Ziel durchaus weitgehend erreicht, weil die Last auf dem Server deutlich abnahm. Dadurch konnten meine echten, menschlichen Interessenten und Kunden wieder schneller meine Seiten abrufen, es entstand weniger (sinnloser) Datenverkehr und somit sanken die Kosten.
Bei der Datei robots.txt handelt es sich um einen von allen Internet-Firmen weltweit anerkannten nochmals viel älteren De-facto-Standard, den sie angeblich beachten wollen. Dabei handelt es sich um eine einfache Text-Datei, in welche man hineinschreiben kann, was man erlaubt respektive nicht mehr erlauben will. Sie dürfen auch meine eigene robots.txt dieses Auftrittes gerne lesen, kostenlos und lizenzfrei verwenden und auch weitergeben.
In der ersten Zeile steht ebenfalls: User-agent: *
. Es ist in beiden Dateien wirklich gleichgültig, ob man dies groß oder klein schreibt. Dies bedeutet, dass das Folgende in allen weiteren Zeilen darunter somit für alle denkbaren Suchmaschinen / -Crawler etc. ausnahmslos gilt - also für die herkömmlichen Suchmaschinen wie auch KI-Suchmaschinen. Darauf folgt die Einschränkung für alle, nämlich: Disallow: /b/
, womit bei mir alle Unterverzeichnisse mit den Bildern gemeint sind. D.h. keine Suchmaschine, Crawler, Spider etc. darf sich meine Bilder anschauen, diese herunterladen oder analysieren respektive als Suchtreffer anzeigen.
Dann folgen viele Zeilen mit User-agent:
sowie der genauen Bezeichnung jenes Suchmaschinen-Bots. Ein Bot ist hier und im folgenden Text dieses Artikels das Online-Werkzeug, welches alles im Internet anhand der Link-Struktur untersucht respektive schlichtweg abwandert.
Schließlich folgen am Ende der Namensliste Disallow: /
, womit alle Verzeichnisse der Hauptebene (Root) und alle Unterverzeichnisse gesperrt werden, wodurch gleichzeitig auch alle weiteren denkbaren Dateiformen verboten werden. - D.h. die in der Liste davor genannten Suchmaschinen dürfen keine Inhalte indizieren. Da stehen auch explizit KI-Bots wie z.B. 'GPTBot'.
Da alle IT-Firmen (also auch alle KI-Firmen) gelobten, sich an den Inhalt dieses robots.txt zu halten, sollte damit im Grunde alles geklärt sein. - Die Kurzfassung lautet: 'Sie dürfen nichts durchsuchen und nichts auswerten.' - Erstaunlicher Weise hielten sich auch viele Firmen daran und durchsuchten daraufhin meine Auftritte zumindest seltener. - Korrekt gelesen. Weder hielten sich alle daran noch hielten sich die Anderen immer daran. Aber damit war mein Ziel durchaus weitgehend erreicht, weil die Last auf dem Server deutlich abnahm. Dadurch konnten meine echten, menschlichen Interessenten und Kunden wieder schneller meine Seiten abrufen, es entstand weniger (sinnloser) Datenverkehr und somit sanken die Kosten.
Als Hilfe für alle Suchmaschinen und auch die KI-Firmen schrieb ich in die allerletzte Zeile der robots.txt den Zusatz: 'Sitemap: https://www.controlling21.de/sitemap.xml'. Diese Datei dient dazu, allen klar darzulegen, wie die gesamte Struktur des eigenen Internet-Auftrittes aussieht, und welche Dateien überhaupt und exakt wo - also in welchem Unterordner - vorhanden sind. Damit sollte jedem Suchmaschinen-Betreiber klar sein, wo er nach was suchen kann, darf etc. Das hat bisher auch über Jahrzehnte immer weitgehend funktioniert. - Weitgehend deshalb, weil die Suchmaschinen wie Google etc. auch hirnlosen Tippfehler-Links irgendwo im weltweiten Netz zu mir folgen und dann auf eine sogenannte '404-Seite' stoßen, weil jene Daten nicht existieren. - Auch diese 404-Datei dürfen Sie sich kopieren sowie verwenden, jedoch ist jene Datei nicht einmal zwingend erforderlich, da der Server das Signal '404' bei jedem derartigen Fehler ausgibt und an den Anfragenden zurücksendet.
Aber grundsätzlich sollte jeder so eine eigene sitemap.xml (eine reine Textdatei) für die eigenen Dateien jedes Internet-Auftrittes selbst erstellen. Denn sie hilft den Suchmaschinenbetreibern wirklich, weil das völlig standardisiert ist und von Maschinen perfekt verstanden wird. Zwar dürfen Sie sich meine (Struktur als Anregung) herunterladen und verwenden. Aber Sie müssen in jeder Zeile Ihre eigenen Namen eintragen - sowohl für den Internet-Auftritt als auch die Unterverzeichnisse sowie die Einzeldateien. Siehe zur Erstellung u.a. die Hinweise bei Google respektive den kostenlosen, automatischen XML-Sitemap-Erzeuger. Sie dürfen sich allerdings auch meine als Text-Datei gestaltete Basis-Struktur herunterladen und darin einfach manuell alles eintragen. Die Struktur ist so einfach, dass dies jeder sofort versteht. Man muss nur jeweils eine neue Zeile mit den spitzen Klammern mit 'url' sowie 'loc' am Anfang und Ende einfügen und dann die genaue Adresse jeder Datei dazwischen eintragen.
Nochmals: Mir und anderen Anwendern ging und geht es mit diesen bekannten Tricks nicht darum, jeden komplett auszuschließen, sondern die seit 2023 deutlich ansteigende sinnlose zusätzliche Last zu begrenzen.
Jeder Mensch und jede Maschine kann diese drei frei zugänglichen Text-Dateien problemlos lesen verstehen und verwenden - also auch Bots der Suchmaschinen und der KI-Firmen.
Vor allem seit April 2025 stellte ich allerdings ein völlig unvorhergesehenes Verhalten fest, das bis im Mai fast alle meine eigenen Internet-Auftritte sowie die meiner Kunden befiel: Es kam zu exorbitant hohen Zugriffszahlen. So fanden sich für einen kleinen regionalen Auftritt für Kinder in der lokalen Fasnacht statt der ca. 100 menschlicher Seitenabrufe je Tag plötzlich bis zu über 193.000 zusätzliche von OpenAI - je Tag. Das entspricht ca. der tausendfachen Last auf dem Server.
Wäre dies nicht schon schlimm genug, so stellte sich heraus, dass der Bot sich komplett 'verwurschtelte': Er 'halluzinierte' Dateinamen respektive vor allem Unterverzeichnisstrukturen, welche es nie gab, nicht gibt, noch jemals geben wird. Z.B. im folgenden 'kleinen' Logfile-Eintrag. - Ein Logfile ist ein Verzeichnis, in welchem jeder einzelne Zugriff auf Ihren Internet-Auftritt in einer neuen Zeile als Text festgehalten wird: 20.171.207.253 - - [17/May/2025:23:59:59 +0200] "GET /firma/artikel/beratung/ergonomie/theorie/farben/nutzeranalysen/logfile-analyse/auswertung/firma/nutzeranalysen/logfile-analyse/normen/ergonomie/theorie/grundlagen/ergonomie/theorie/text/controlling/layout/text/grundlagen/firma/nutzeranalysen/logfile-analyse/normen/grundlagen/farben/artikel/wasserkuehlung/pc/vorteile/auswertung/gutachten/beispiel-nutzeranalyse/controlling/bestandteile/beratung/artikel/software/controlling/miss-lupun/beratung/strategie/fragen.htm HTTP/1.1" 301 702 "-" "Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GPTBot/1.2; +https://openai.com/gptbot)" "Traffic IN:735 OUT:1361" "ReqTime:0 sec"
. - Dabei geht es vor allem um den eigentlichen Dateiabruf, welcher hier fett hervorgehoben wurde. Nochmals: Das ist ein wirklich kurzer Eintrag eines Tageslogfiles dieses Internet-Auftrittes.
Selbstverständlich besitze weder ich noch sonst jemand eine derartig verschachtelte Unterstruktur mit 45 Unterverzeichnissen. - Das sollte jedem Analyseprogramm - also auch jedem Bot - klar sein.
Dabei schaukelte sich das unverständliche Verhalten des Bots auf: Während er die Vortage sich noch im erträglichen Rahmen mit seinen (gemäß robots.txt und ai.txt illegalen) Abrufen verhielt, stiegen die Zahlen am Freitag, den 17. Mai, auf über 14.000, am Samstag, den 15., auf über 144.000 Abrufe und am Sonntag, den 19.05., auf über 181.000 Abrufe völlig unsinniger Dateinamen. Als am Montag, den 20. Mai alles völlig außer Kontrolle geriet, blockierte ich jeden weiteren Zugriff mit harten Maßnahmen. Siehe dazu die Details für Sie zum direkten Anwenden als Selbstschutz weiter unten.
Exakt jenes Verhalten trat seit April immer wieder - manchmal für einen Tag, manchmal sich über Tage aufschaukelnd bei dutzenden meiner Internet-Auftritte auf.
Im Fachjargon bezeichnet man so etwas als einen DOS-Angriff. Eine Denial of Service-Attacke richtet sich gegen einen Internet-Auftritt, um ihn in die Knie zu zwingen respektive im schlimmsten Fall zu zerstören. Dabei wird schlichtweg eine unerwartet hohe Anzahl an Abfragen hergestellt, damit der Server damit beschäftigt ist, und in der Folge sonst nichts mehr machen kann.
Im besten Fall, wird der eigene so angegriffene Internet-Auftritt immer langsamer, die Kunden und Interessenten müssen immer länger auf den Seitenaufbau und jegliche Reaktion warten. D.h. jene werden das nicht machen, sondern das Vorhaben abbrechen. Dies führt zu einem Image-Schaden oder sogar finanziellem Verlust, weil potentielle Kunden abspringen.
Je nach Server-Betreiber / Hoster und Vertrag kann das aber auch direkt Geld kosten, da Sie als Betreiber des Internet-Auftrittes für den entstehenden Datentransfer haften, also im Zweifel bezahlen müssen. Im schlimmsten Fall wird der Hoster Ihres Auftrittes Ihnen sogar kündigen, weil er derartige Angriffe nicht wünscht. Denn er hat neben den Kosten auch viel Aufwand und vor allem sinnlosen Ärger.
Halt-Stopp: Das ist eine internationale Definition. Ich unterstelle OpenAI allerdings nicht, dass sie dies aus kriminellen Motiven taten. Aber ...
Da ich einen Programmierfehler von Menschen hinter der Angelegenheit vermutete, schrieb ich an jene Firma. Die E-Mail-Adressen darf man laut deutschen Datenschutzrecht nicht publizieren. Aber Sie finden jene selbst mit einem Suchbefehl der folgenden Art heraus. Da ich in jenen Dingen erfahren respektive kreativ bin, schreibe ich zudem als cc auch immer an info@, abuse@, support@, trustandsafety@, etc. Seien auch Sie kreativ. Denn im Zweifel erhalten Sie die E-Mail einfach zurück mit einem Hinweis, welche Adressen nicht existieren. Mehr passiert Ihnen nicht.
In der E-Mail legte ich kurz, sachlich und höflich (selbstverständlich auf Englisch, da dort kein Mensch deutsche Anfragen überhaupt liest, geschweige denn versteht) die Punkte dar und bat um Abhilfe. Ferner wies ich darauf hin, dass es sich vermutlich um einen Programmierfehler handelt, sowie dass ich sogar zur Fehlerauffindung und Fehlerbehebung bereit bin zu helfen.
Die Antworten war erwartbar. Entweder handelte es sich um eine überlastete Support-Mitarbeiterin, welche nur wieder ihre (höflich formulierten und somit rechtlich kaum angreifbaren) Textbausteine lustlos hineinkopierte, oder ich geriet an einen KI-Chat-Bot, der schlichtweg auch nichts verstand. - Fazit: Man tat nichts, verwies mich pauschal darauf, dass ich mich in den vielen verstreuten Firmenseiten selbst informieren sollte und schloss dann die ganze Anfrage final ab. Schließlich bat man mich noch, eine gute Bewertung für diesen 'herausragenden' Service abzugeben.
So machte man sich nicht einmal die Mühe, abzustreiten, dass es ihre IP-Adresse wäre, von der die Störaktionen ausgegangen waren. Es handelte sich bei mir immer um die 20.171.206.* respektive 20.171.207.* Bandbreite.
Jede Untersuchung wurde abgelehnt, jeder Test unterbunden, jede Hilfe ignoriert. Man war schlichtweg nicht an dem von den eigenen Programmierern verursachten Fehlern in der Bot-Programmierung interessiert, geschweige jene zu beheben. Weder der Bot noch der Server dort wurden gestoppt.
Eine Hilfe von OpenAI - dem Verursacher - ist nicht zu erwarten.
Die KI-Suchmaschine mit der Bezeichnung 'GPTBot' läuft weiterhin Amok und zwang mehrere meiner Auftritte durch tagelange Überlastung in die Knie und schädigte mich sowie meine Kunden. Das kann auch Ihnen passieren - jederzeit.
Der irrlaufende Bot von OpenAI ignoriert absichtlich die Angaben im ai.txt. Der Bot von OpenAI ignoriert vorsätzlich die Angaben in der robots.txt. Und der Bot von OpenAI ignoriert absichtlich die Angaben in der Sitemap.xml. - Das ist keine Zeichen von Künstlicher Intelligenz (KI), sondern von MD - Menschlicher Dummheit.
Da sich OpenAI, eine Firma mit über 1.700 der höchstbezahlten und angeblich intelligentesten Mitarbeitern der Welt - alles ausgewählte Super-Programmierer, offenbar weigern, den Fehler in ihrer Suchmaschine zu beseitigen, kommen wir nun zu den einzigen derzeitig möglichen Gegenmaßnahmen:
Dazu benötigen Sie entweder Zugriff auf die Datei '.htaccess' im Wurzelverzeichnis (Root) Ihres Internet-Auftrittes (bei jedem Internet-Paket eines hochwertigeren Hosters erhältlich) oder sogar noch weitergehende Rechte zur Konfiguration des Servers (meist nur bei eigenen Servern möglich). Ob Sie Zugang zur Datei '.htaccess' besitzen, können Sie ganz leicht mittels FTP herausfinden. Das geht z.B. mit dem kostenlosen Programm Filezilla. Stellen Sie damit und Ihren Passwörtern eine Verbindung zum Internet-Auftritt her. Dort sehen Sie dann im Wurzelverzeichnis diese Datei, welche aufgrund ihres außergewöhnlichen Namens bei einer Dateisortierung meist ganz oben oder unten zu finden ist. Kopieren / transferieren Sie jene auf Ihren PC und bearbeiten Sie die Datei dann in einem Texteditor. Auch dies ist im Prinzip eine reine Textdatei.
Sie dürfen erneut meine eigene htaccess.txt als Beispiel dieses Auftrittes gerne lesen, kostenlos und lizenzfrei verwenden und auch weitergeben. - Hinweis: Die originale und größere echte .htaccess ist nicht frei aufrufbar - nirgends. Durch ihren Dateinamen wird sie vom System besonders geschützt. Achten Sie darauf, dass Sie somit aus meiner kurzen Beispieldatei den Inhalt nur herauskopieren und in Ihre echte .htaccess einfügen. Denn nur mit der exakten Bezeichnung '.htaccess' funktioniert diese Datei. Jede minimale Abweichung von diesem Dateinamen macht sie wertlos.
Wichtige Erklärungen dazu sind: Alle Zeilen, welche mit einer Raute # beginnen, sind Kommentarzeilen. Dort dürfen Sie hineinschreiben, was Sie wollen. Ich habe es gerne etwas übersichtlich und wähle deshalb hinter der Raute Trennstriche zwischen verschiedenen Abteilungen mit unterschiedlichen Einsatzzwecken.
Die Zeile SetEnvIfNoCase User-Agent "GPTBot" bots
legt fest, dass alles zwischen den beiden doppelten Hochstrichen als Suchwort verwendet wird. Sofern sich also in meinem Fall bei OpenAI der offizielle Agent 'GPTBot' in jenem Informationspaket an den Server befindet, dann wird eine Aktion durchgeführt. Diese Aktion findet sich in den folgenden drei Zeilen <Limit GET POST HEAD> - Order Allow,Deny - Allow from ALL - Deny from env=bots
. Das ist einfacher als es aussieht. Letztendlich heißt dies nur: Sofern sich der Bot von OpenAI (wie bisher immer bei mir) als 'GPTBot', oder 'openai', oder 'OAI-SearchBot' zu erkennen gibt, dann wird jene Anfrage vom Server komplett ignoriert. D.h. sie wird erst gar nicht bearbeitet. Dadurch reduziert sich die Last deutlich.
Dann kommen wir zum zweiten Teil der Sperrung. Denn nach dem unerfreulichen Schriftverkehr mit jener reichen US-Firma glaube ich denen inzwischen kein Wort mehr. Sie haben ihre Angriffe auf meine Server auch nach dem ersten Schreiben und deren erster Antwort fortgesetzt. Deshalb hilft letztendlich nur, die IPs - also die ausgehenden Internet-Protokoll-Adressen vom Bot von OpenAI zu sperren. Dazu bietet einerseits Ihr eigenes Logfile der Angriffe auf Sie mit den IPs Hinweise als auch die Liste der von OpenAI angeblich verwendeten IP-Adressen. Bei allen Adressen handelt es sich um Server von Microsoft Cloud, jener Firma, mit welcher OpenAI eng finanziell verbunden ist sowie engstens zusammenarbeitet. Aber auch hier gibt es Probleme, weil erstens Microsoft gigantische IP-Ressourcen besitzt und benutzt, und andererseits OpenAI ständig neue IPs verwendet. Achten Sie deshalb auf das Datum jener Datei in der ersten Zeile oben. Am 20. Mai waren es noch sechs Bänder, während es fünf Tage später bereits acht noch größere Bandbreiten waren. Im September 2025 waren es bereits über 160 IP-Bänder. - Wichtig ist, dass es bei OpenAI noch weitere Bots für weitere störende Aktionen gibt, welche evtl. ähnliche Fehler bei Ihnen verursachen können, welche folglich auch in die Sperrliste eingebaut wurden.
Was man somit machen kann, ist, alle jene Einzel-IPS zu sperren. Manuell wäre dies mühsam. Aber es gibt die Bänder. Deshalb schreibe ich und andere auch deny from
und dann '52.230.152.'. Lässt man hinter dem dritten Punkt alle Zahlen weg, dann meint man damit pauschal 0-255. Man kann alternativ allerdings auch schreiben '52.230.152.0/24' Die Angabe '.0/24' bedeutet: Starte bei der Zahl 0 und gehe dann (32-24 = 8 Bit = 2 hoch 8 = 256 Zahlen) hoch - also bis 255.
So macht man dies mit jeder Bandbreite oder Einzel-IP-Adresse. Die Angaben '0/25' bedeutet: 0-127 und die Angabe '0/28' bedeutet: Starte bei der Zahl 0 und gehe dann (32-28 = 4 Bit = 2 hoch 4 = 16 Zahlen) hoch - also bis 15.
Zum Schluss muss unbedingt noch die schließende Angabe </Limit>
stehen. Das war es. Bei mir kommt dann noch eine optisch trennende Kommentarzeile. - Sofern sich der Bot von OpenAI (wie bisher immer bei mir) dieser IP-Adressen bedient, dann wird jene Anfrage vom Server komplett ignoriert. D.h. sie wird erst gar nicht bearbeitet. Dadurch reduziert sich die Last deutlich.
Wie oben erwähnt, dürfen Sie sich meine Datei und Inhalte einfach in Ihre eigene .htaccess hineinkopieren. Das sollte erst einmal helfen.
In Deutschland sind derartige Überlast-Angriffe verboten. Sie können also dagegen zivil- als auch strafrechtlich vorgehen. Das geht sogar gegen beide Firmen: OpenAI als direktem Verursacher und Microsoft Cloud, weil sie dies unterstützen und sich somit laut Ansicht von Juristen der Beihilfe schuldig machen. Dazu benötigen Sie als Beweis allerdings die Logfiles Ihres Internet-Auftrittes mit der gesamten langen IP-Adresse. Da dies in Deutschland aufgrund des strengen Datenschutzes eingeschränkt ist, müssen Sie die Aufzeichnung der IP-Adresse ggf. erst in den Logfiles aktivieren. Danach müssen Sie diese Logfiles regelmäßig auf Ihren PC sichern. Denn diese sind als Beweismittel erforderlich. Dafür darf man dies auch tun. Denn niemand verweigert Ihnen, sich zu schützen und gegen derartige Angriffe vorzugehen.
Und um es abschließend auch klar zu schreiben: Falls die Überlast-Angriffe der Firma OpenAI nun weitergehen, werde ich den Rechtsweg beschreiten. Denn die Chancen stehen aufgrund der EU-Rechtslage sehr gut. Selbst, wenn sich OpenAI nicht darum schert, dann wird Microsoft keinen Ärger mit der EU haben wollen. Dazu haben sie bereits zu viele Probleme mit der EU. Letzteres kann für diese großen sowie bei den Grünen in der EU verhassten Firmen sehr schnell sehr teuer werden.
Controlling21.de - Dr. J. Schuhmacher
Internet und Multimedia in Perfektion