Three words sit at the center of everything we do at OM Intelligence: practical, sovereign, sustainable. They're on our homepage. They guide every recommendation we make.

But words are cheap, especially in consulting. So this post explains what we actually mean by each one, why we think they matter right now, and what they look like in practice. With numbers, not slogans.

Practical

What we mean

We mean anti-hype. We mean starting with your actual problem, not with the latest technology looking for a problem to solve. We mean saying "don't build that" when a spreadsheet would do the job.

AI is a powerful tool. But a tool is only as useful as the clarity behind its application. And right now, most companies lack that clarity.

Why it matters right now

The AI hype cycle is at full volume. Every conference, every vendor pitch says the same thing: adopt AI or get left behind. The pressure is real. But so is the wreckage.

We wrote about this in detail in our first blog post: most SMEs don't have an AI problem, they have a clarity problem. The short version: over 80% of AI projects fail, 42% of companies abandoned most of their AI initiatives in 2025, and the 6% of organizations that actually see returns are the ones that redesigned their workflows before touching any technology. Clarity beats tools, every time.

But the picture has gotten even sharper since then. AI infrastructure spending exceeded $400 billion in 2025 against roughly $100 billion in enterprise AI revenue. Goldman Sachs' chief economist said AI boosted the US economy by "basically zero" in 2025. Gartner declared that generative AI has entered the "Trough of Disillusionment," with fewer than 30% of CEOs happy with their returns.

Even the people building AI are sounding the alarm. Jeff Bezos called the current environment "kind of an industrial bubble." Sam Altman warned that "people will overinvest and lose money." MIT Technology Review ran an entire package called "The Great AI Hype Correction" at the end of 2025, documenting how AI leaders made promises they couldn't keep.

And European SMEs? Only 17% of small enterprises (10-49 employees) in the EU used AI in 2025. Not because they're behind, but because most haven't found a use case that justifies the investment. That's not a failure. That's judgment.

What practical looks like

Practical means starting with the process, not the product. As we showed in our analysis of AI project failures, companies that understand their workflows before choosing a tool are nearly three times more likely to see real returns. Here's what that looks like:

  • Start with the process, not the product. If you can't describe your workflow in under 10 steps, AI won't fix it. A process audit costs almost nothing. An AI project that automates chaos costs a lot.
  • Right-size the solution. A graduated implementation strategy works better than moonshots: start with off-the-shelf tools for specific tasks, then expand only where results justify it. Model selection (choosing the right existing model) beats model building for virtually every SME use case.
  • Measure before and after. As we noted in our deep dive on the Swiss AI landscape, only 13% of Swiss companies have measurable KPIs for their AI initiatives. Without a baseline, you can't tell if AI (or anything else) made things better.

When AI is the right fit, the results are real. A European study of 11,429 SMEs found that targeted AI adoption significantly increases the probability of revenue growth above 30%. But as we discussed in detail, those results come from companies that did the groundwork first. AI is the accelerator, not the starting point.

Sovereign

What we mean

Your data stays under your control, legally and technically. We design solutions where sensitive information doesn't leave Europe, doesn't fall under foreign jurisdiction, and doesn't become training data for someone else's model. This isn't ideology. It's risk management.

Why it matters right now

Every time an employee pastes client data into ChatGPT on the free or Plus tier, that data travels to a US data center, processed under US jurisdiction. OpenAI offers EU data residency, but only for Enterprise and Edu customers. The vast majority of SMEs don't qualify.

And even data residency isn't sovereignty. The physical location of the server is only half the story. The US CLOUD Act (2018) compels American companies to hand over data to US authorities regardless of where it's stored. When AWS launched its "European Sovereign Cloud" in January 2026, independent analysis concluded it "cannot rule out US data access." Industry observers call this "sovereignty washing."

The legal ground is shifting fast. The EU-US Data Privacy Framework, the current mechanism allowing data transfers to the US, survived its first court challenge in September 2025. But an appeal is pending before the CJEU. Max Schrems himself has suggested that political changes in the US (gutting of oversight boards, changes to the FTC) may cause the European Commission to pause the deal on its own. If the framework falls (a scenario widely called "Schrems III"), all transfers based on it become retroactively non-compliant.

The fines are real and growing. GDPR enforcement hit EUR 2.3 billion in 2025, a 38% increase year over year. Italy fined OpenAI EUR 15 million for training on personal data without legal basis. Clearview AI racked up roughly EUR 100 million in fines across four EU countries. The EU AI Act adds another layer: the penalty regime is now active, with fines up to EUR 35 million or 7% of global turnover for prohibited practices.

What sovereign looks like

Sovereignty is not about avoiding all US tools. It's about knowing where your sensitive data flows and making deliberate, documented choices.

  • Know your tiers. The data handling terms differ significantly between ChatGPT Free, Plus, Team, and Enterprise. Most employees don't know which one they're using. Neither do most managers.
  • European alternatives exist and are competitive. Mistral AI raised EUR 1.7 billion in 2025 and offers open-weight models you can self-host. Aleph Alpha holds Germany's only BSI C5 security certification for an LLM provider. European cloud infrastructure (Hetzner, OVHcloud, Scaleway) is not only compliant but often dramatically cheaper. An independent benchmark found Hetzner delivers roughly 14x the value per compute unit of AWS.
  • Self-hosting is now practical for SMEs. Open-source models in 2026 rival proprietary ones for most business tasks. EU-funded AI Factories and EuroHPC supercomputers give startups and SMEs access to GPU capacity for fine-tuning. The Latvian company Tilde built a 30-billion-parameter model on European infrastructure.
  • Classify your data. Not everything needs the same level of protection. Build a simple policy: what can go to cloud AI, what must stay on European infrastructure, what stays fully internal.

Companies that build data sovereignty into their AI strategy now will have a structural advantage when regulation tightens further. And based on the trajectory, it will.

Sustainable

What we mean

Every AI solution should be maintainable, efficient, and built to last. We think in lifecycles, not just quarterly ROI. That means considering the environmental cost, the technical debt, and whether the solution will still make sense in two years.

Why it matters right now

AI has a physical footprint that most people don't see. The data centers running these models consume real energy and real water.

The numbers are sobering. Global data center electricity consumption is expected to approach 1,050 TWh by 2026, which would place data centers fifth globally, between Japan and Russia. Ireland already uses 21% of its national electricity for data centers, projected to rise to 32% by 2026. Goldman Sachs estimates that roughly 60% of the increasing demand will be met by fossil fuels, adding approximately 220 million tons of global carbon emissions.

The companies building AI are struggling with their own sustainability commitments. Microsoft's total emissions rose 23.4% since 2020, despite a pledge to be carbon negative by 2030. Google's electricity consumption is up 27%, and the company dropped its "carbon neutral operations" claim. Together with Amazon and Meta, they plan to spend $320 billion on AI infrastructure in 2025, more than double what they spent in 2023.

And here's the trap: efficiency gains don't automatically help. When AI gets cheaper and faster, people use more of it. This is the Jevons Paradox in action. Microsoft CEO Satya Nadella acknowledged it directly: "as AI gets more efficient and accessible, we will see its use skyrocket." AI electricity demand is at 2% of global electricity and will more than double by 2026, despite massive efficiency improvements.

But sustainability isn't just about carbon. It's also about building things that last. As we covered in our piece on why most AI projects fail, the abandonment rate is staggering. But even projects that do launch often don't survive. 88% of AI proofs of concept never make it to production. Technical debt from AI systems costs over $2.41 trillion annually in the US alone, and Forrester predicts that 75% of technology decision-makers will face moderate to severe technical debt by 2026. Google's own researchers documented that ML systems carry all the maintenance problems of traditional software, plus a set of ML-specific issues: hidden feedback loops, data dependency debt, and boundary erosion. Only a small fraction of a real-world ML system is the actual model code. The surrounding infrastructure is vast and fragile.

An AI solution that works brilliantly for six months and then becomes unmaintainable isn't sustainable. Neither is one that solves a problem nobody measured.

What sustainable looks like

  • Right-size your models. Small, task-specific models can cut energy use by up to 90% while maintaining comparable performance. A UNESCO report found that applying model selection rather than defaulting to the largest model could reduce global AI energy consumption by 27.8%. You don't take a truck to pick up bread.
  • Ask your provider about energy sources. Where are the data centers? What's the electricity mix? European providers like Hetzner, Scaleway, and Infomaniak often have higher transparency than hyperscalers. If your vendor can't answer, that tells you something.
  • Plan for the rebound. If AI saves 20% of processing time, where does that capacity go? Rebound effects are the default if you don't plan for them. Make it a deliberate choice, not a surprise.
  • Build to maintain, not just to ship. Choose solutions your team can understand, modify, and run without the original vendor. Transfer knowledge. Document decisions. The goal is that the system outlasts the project.
  • Question the default. Not every task needs AI. Sometimes a rule-based system, a well-designed template, or a human review step is more appropriate and far less resource-intensive.

The EU is moving in this direction too. The EU AI Act requires large AI systems to report energy consumption, and the Energy Efficiency Directive imposes new obligations on data centers starting 2026. Regulation will catch up. Companies that already think in lifecycles won't need to scramble.

The Intersection

These three values aren't separate pillars. They reinforce each other.

A practical approach avoids waste, which is sustainable. Sovereign infrastructure means you control what you build, which makes it maintainable. Sustainable thinking forces you to right-size solutions, which keeps them practical.

The companies that will succeed with AI in 2026 and beyond won't be the ones that moved fastest. They'll be the ones that moved most deliberately: understanding their problem before choosing a tool, keeping control of their data, and building solutions meant to last.

That's the standard we hold ourselves to. And it's what we help our clients build toward.

Drei Worte stehen im Zentrum von allem, was wir bei OM Intelligence tun: praktisch, souverän, nachhaltig. Sie stehen auf unserer Homepage. Sie leiten jede Empfehlung, die wir geben.

Aber Worte sind billig, besonders in der Beratung. Deshalb erklärt dieser Beitrag, was wir mit jedem dieser Begriffe wirklich meinen, warum sie gerade jetzt wichtig sind und wie sie in der Praxis aussehen. Mit Zahlen, nicht mit Slogans.

Praktisch

Was wir meinen

Wir meinen Anti-Hype. Wir meinen: mit dem eigentlichen Problem anfangen, nicht mit der neuesten Technologie, die ein Problem sucht. Wir meinen: "Bau das nicht" sagen, wenn eine Tabelle den Job erledigt.

KI ist ein mächtiges Werkzeug. Aber ein Werkzeug ist nur so nützlich wie die Klarheit hinter seiner Anwendung. Und gerade fehlt den meisten Unternehmen genau diese Klarheit.

Warum es jetzt wichtig ist

Der KI-Hype-Zyklus läuft auf voller Lautstärke. Jede Konferenz, jeder Anbieter-Pitch sagt dasselbe: KI einsetzen oder abgehängt werden. Der Druck ist real. Aber die Schäden auch.

Wir haben das ausführlich in unserem ersten Blogbeitrag beschrieben: Die meisten KMU haben kein KI-Problem, sondern ein Klarheitsproblem. Die Kurzfassung: Über 80% der KI-Projekte scheitern, 42% der Unternehmen haben 2025 die Mehrheit ihrer KI-Initiativen eingestellt, und die 6% der Organisationen mit echten Renditen haben ihre Arbeitsabläufe umgestaltet, bevor sie Technologie angefasst haben. Klarheit schlägt Werkzeuge, jedes Mal.

Aber das Bild hat sich seitdem noch verschärft. Die Ausgaben für KI-Infrastruktur überstiegen 2025 die 400-Milliarden-Dollar-Marke, bei nur rund 100 Milliarden Dollar KI-Umsatz. Der Chefökonom von Goldman Sachs erklärte, KI habe die US-Wirtschaft 2025 um "im Grunde null" gesteigert. Gartner erklärte, dass generative KI das "Tal der Enttäuschung" erreicht hat, wobei weniger als 30% der CEOs mit den Ergebnissen zufrieden sind.

Selbst die Leute, die KI bauen, schlagen Alarm. Jeff Bezos nannte die aktuelle Lage "eine Art industrielle Blase." Sam Altman warnte, "Leute werden überinvestieren und Geld verlieren." MIT Technology Review veröffentlichte Ende 2025 ein ganzes Dossier namens "The Great AI Hype Correction", das dokumentiert, wie KI-Führungskräfte Versprechen gemacht haben, die sie nicht halten konnten.

Und europäische KMU? Nur 17% der kleinen Unternehmen (10-49 Mitarbeitende) in der EU nutzten 2025 KI. Nicht weil sie hinterherhinken, sondern weil die meisten keinen Anwendungsfall gefunden haben, der die Investition rechtfertigt. Das ist kein Versagen. Das ist Urteilsvermögen.

Wie praktisch aussieht

Praktisch beginnt mit dem Prozess, nicht mit dem Produkt. Wie wir in unserer Analyse gescheiterter KI-Projekte gezeigt haben, sind Unternehmen, die ihre Arbeitsabläufe vor der Werkzeugwahl verstehen, fast dreimal häufiger erfolgreich. So sieht das konkret aus:

  • Mit dem Prozess anfangen, nicht mit dem Produkt. Wenn Sie Ihren Arbeitsablauf nicht in unter 10 Schritten beschreiben können, wird KI das nicht reparieren. Ein Prozess-Audit kostet fast nichts. Ein KI-Projekt, das Chaos automatisiert, kostet viel.
  • Die Lösung richtig dimensionieren. Eine schrittweise Implementierungsstrategie funktioniert besser als Mondflug-Projekte: mit fertigen Werkzeugen für spezifische Aufgaben beginnen, dann nur dort erweitern, wo Ergebnisse es rechtfertigen.
  • Vorher und nachher messen. Wie wir in unserem Überblick zur Schweizer KI-Landschaft festgestellt haben, haben nur 13% der Schweizer Unternehmen messbare KPIs für ihre KI-Initiativen. Ohne Ausgangswert können Sie nicht sagen, ob KI (oder irgendetwas anderes) etwas verbessert hat.

Wenn KI passt, sind die Ergebnisse real. Eine europäische Studie mit 11.429 KMU zeigte, dass gezielte KI-Einführung die Wahrscheinlichkeit eines Umsatzwachstums über 30% signifikant erhöht. Aber wie wir im Detail besprochen haben, kommen diese Ergebnisse von Unternehmen, die zuerst die Grundlagen geschaffen haben. KI ist der Beschleuniger, nicht der Startpunkt.

Souverän

Was wir meinen

Ihre Daten bleiben unter Ihrer Kontrolle, rechtlich und technisch. Wir entwerfen Lösungen, bei denen sensible Informationen Europa nicht verlassen, nicht unter fremde Gerichtsbarkeit fallen und nicht zum Trainingsmaterial für das Modell eines anderen werden. Das ist keine Ideologie. Das ist Risikomanagement.

Warum es jetzt wichtig ist

Jedes Mal, wenn ein Mitarbeitender Kundendaten in ChatGPT (Free oder Plus) einfügt, wandern diese Daten in ein US-Rechenzentrum und werden unter US-Recht verarbeitet. OpenAI bietet EU-Datenspeicherung an, aber nur für Enterprise- und Edu-Kunden. Die grosse Mehrheit der KMU fällt nicht darunter.

Und selbst Datenspeicherung in Europa ist nicht Datensouveränität. Der physische Standort des Servers ist nur die halbe Geschichte. Der US CLOUD Act (2018) zwingt amerikanische Unternehmen, Daten an US-Behörden herauszugeben, egal wo diese gespeichert sind. Als AWS im Januar 2026 seine "European Sovereign Cloud" startete, kam eine unabhängige Analyse zum Schluss, dass sie "US-Datenzugriff nicht ausschliessen kann." Branchenbeobachter nennen das "Sovereignty Washing."

Der rechtliche Boden verschiebt sich schnell. Das EU-US Data Privacy Framework, der aktuelle Mechanismus für Datentransfers in die USA, überstand seine erste gerichtliche Anfechtung im September 2025. Aber eine Berufung liegt beim EuGH vor. Max Schrems selbst deutete an, dass politische Veränderungen in den USA die Europäische Kommission dazu bringen könnten, das Abkommen von sich aus zu pausieren. Fällt das Framework ("Schrems III"), werden alle darauf basierenden Transfers rückwirkend nicht-konform.

Die Bussen sind real und wachsen. Die DSGVO-Durchsetzung erreichte 2025 2,3 Milliarden Euro, ein Anstieg von 38% gegenüber dem Vorjahr. Italien verhängte eine Busse von 15 Millionen Euro gegen OpenAI wegen Training mit personenbezogenen Daten ohne Rechtsgrundlage. Clearview AI sammelte rund 100 Millionen Euro an Bussen in vier EU-Ländern. Der EU AI Act fügt eine weitere Schicht hinzu: das Bussenregime ist aktiv, mit Strafen bis zu 35 Millionen Euro oder 7% des weltweiten Umsatzes.

Wie souverän aussieht

Souveränität heisst nicht, alle US-Werkzeuge zu vermeiden. Es heisst, zu wissen, wohin Ihre sensiblen Daten fliessen, und bewusste, dokumentierte Entscheidungen zu treffen.

  • Kennen Sie Ihre Abo-Stufe. Die Datenverarbeitungsbedingungen unterscheiden sich erheblich zwischen ChatGPT Free, Plus, Team und Enterprise. Die meisten Mitarbeitenden wissen nicht, welche sie nutzen. Die meisten Führungskräfte auch nicht.
  • Europäische Alternativen existieren und sind wettbewerbsfähig. Mistral AI sammelte 2025 1,7 Milliarden Euro ein und bietet Open-Weight-Modelle zum Selbst-Hosten an. Aleph Alpha besitzt Deutschlands einzige BSI-C5-Zertifizierung für einen LLM-Anbieter. Europäische Cloud-Infrastruktur (Hetzner, OVHcloud, Scaleway) ist nicht nur regelkonform, sondern oft deutlich günstiger. Ein unabhängiger Benchmark ergab, dass Hetzner etwa 14-mal mehr Leistung pro Recheneinheit liefert als AWS.
  • Self-Hosting ist jetzt für KMU praktikabel. Open-Source-Modelle im Jahr 2026 stehen proprietären Modellen für die meisten Geschäftsaufgaben kaum nach. EU-geförderte AI Factories und EuroHPC-Supercomputer geben Startups und KMU Zugang zu GPU-Kapazitäten.
  • Klassifizieren Sie Ihre Daten. Nicht alles braucht dasselbe Schutzniveau. Erstellen Sie eine einfache Richtlinie: Was darf in die Cloud-KI, was muss auf europäischer Infrastruktur bleiben, was bleibt komplett intern.

Unternehmen, die Datensouveränität jetzt in ihre KI-Strategie einbauen, werden einen strukturellen Vorteil haben, wenn die Regulierung weiter verschärft wird. Und so wie es aussieht, wird sie das.

Nachhaltig

Was wir meinen

Jede KI-Lösung sollte wartbar, effizient und langlebig sein. Wir denken in Lebenszyklen, nicht nur in Quartals-ROI. Das heisst: die Umweltkosten berücksichtigen, die technischen Schulden im Blick behalten und sich fragen, ob die Lösung in zwei Jahren noch Sinn ergibt.

Warum es jetzt wichtig ist

KI hat einen physischen Fussabdruck, den die meisten Menschen nicht sehen. Die Rechenzentren, die diese Modelle betreiben, verbrauchen reale Energie und reales Wasser.

Die Zahlen sind ernüchternd. Der weltweite Stromverbrauch von Rechenzentren wird 2026 voraussichtlich 1.050 TWh erreichen, was Rechenzentren global auf Platz fünf setzen würde, zwischen Japan und Russland. Irland nutzt bereits 21% seines nationalen Stroms für Rechenzentren, Tendenz steigend auf 32% bis 2026. Goldman Sachs schätzt, dass rund 60% der steigenden Nachfrage durch fossile Brennstoffe gedeckt werden, was etwa 220 Millionen Tonnen CO2 hinzufügt.

Die Unternehmen, die KI bauen, ringen mit ihren eigenen Nachhaltigkeitszielen. Microsofts Gesamtemissionen stiegen seit 2020 um 23,4%, trotz des Versprechens, bis 2030 CO2-negativ zu sein. Googles Stromverbrauch ist um 27% gestiegen, und das Unternehmen hat seine Behauptung "CO2-neutraler Betrieb" fallen gelassen. Zusammen mit Amazon und Meta planen sie, 320 Milliarden Dollar für KI-Infrastruktur 2025 auszugeben, mehr als das Doppelte von 2023.

Und hier ist die Falle: Effizienzgewinne helfen nicht automatisch. Wenn KI billiger und schneller wird, nutzen die Leute mehr davon. Das ist das Jevons-Paradoxon in Aktion. Microsofts CEO Satya Nadella hat es direkt angesprochen: "Wenn KI effizienter und zugänglicher wird, wird die Nutzung in die Höhe schiessen." Der KI-Strombedarf liegt bei 2% des weltweiten Stromverbrauchs und wird sich bis 2026 mehr als verdoppeln, trotz massiver Effizienzverbesserungen.

Aber Nachhaltigkeit ist nicht nur eine Frage des CO2. Es geht auch darum, Dinge zu bauen, die halten. Wie wir in unserem Beitrag über das Scheitern von KI-Projekten gezeigt haben, ist die Abbruchrate erschreckend. Aber selbst Projekte, die starten, überleben oft nicht. 88% der KI-Konzeptnachweise schaffen es nie in die Produktion. Technische Schulden durch KI-Systeme kosten allein in den USA über 2,41 Billionen Dollar jährlich, und Forrester prognostiziert, dass 75% der Technologie-Entscheider bis 2026 mit moderaten bis schweren technischen Schulden konfrontiert sein werden. Googles eigene Forscher dokumentierten, dass ML-Systeme alle Wartungsprobleme traditioneller Software mit sich bringen, plus ML-spezifische Probleme: versteckte Feedback-Schleifen, Datenabhängigkeitsschulden und Grenz-Erosion.

Eine KI-Lösung, die sechs Monate brillant funktioniert und dann nicht mehr wartbar ist, ist nicht nachhaltig. Eine, die ein Problem löst, das niemand gemessen hat, auch nicht.

Wie nachhaltig aussieht

  • Modelle richtig dimensionieren. Kleine, aufgabenspezifische Modelle können den Energieverbrauch um bis zu 90% senken, bei vergleichbarer Leistung. Ein UNESCO-Bericht fand heraus, dass Modellauswahl statt dem Griff zum grössten Modell den globalen KI-Energieverbrauch um 27,8% senken könnte. Man nimmt keinen Lastwagen, um Brötchen zu holen.
  • Fragen Sie Ihren Anbieter nach Energiequellen. Wo stehen die Rechenzentren? Wie ist der Strommix? Europäische Anbieter wie Hetzner, Scaleway und Infomaniak haben oft höhere Transparenz als Hyperscaler. Wenn Ihr Anbieter nicht antworten kann, sagt das etwas aus.
  • Planen Sie den Rebound-Effekt ein. Wenn KI 20% Bearbeitungszeit einspart, wohin fliesst die Kapazität? Rebound-Effekte sind der Standard, wenn man nicht dagegen plant. Machen Sie es zu einer bewussten Entscheidung, nicht zu einer Überraschung.
  • Bauen Sie für die Wartung, nicht nur für den Launch. Wählen Sie Lösungen, die Ihr Team verstehen, anpassen und ohne den ursprünglichen Anbieter betreiben kann. Wissen transferieren. Entscheidungen dokumentieren. Das Ziel ist, dass das System das Projekt überlebt.
  • Hinterfragen Sie den Standard. Nicht jede Aufgabe braucht KI. Manchmal ist ein regelbasiertes System, eine gut gestaltete Vorlage oder ein menschlicher Prüfschritt angemessener und weit weniger ressourcenintensiv.

Die EU bewegt sich in diese Richtung. Der EU AI Act verlangt von grossen KI-Systemen, ihren Energieverbrauch zu melden, und die Energieeffizienzrichtlinie erlegt Rechenzentren ab 2026 neue Pflichten auf. Die Regulierung wird aufholen. Unternehmen, die bereits in Lebenszyklen denken, müssen dann nicht hektisch nachrüsten.

Die Schnittmenge

Diese drei Werte sind keine getrennten Säulen. Sie verstärken sich gegenseitig.

Ein praktischer Ansatz vermeidet Verschwendung, was nachhaltig ist. Souveräne Infrastruktur bedeutet, dass Sie kontrollieren, was Sie bauen, was es wartbar macht. Nachhaltiges Denken zwingt dazu, Lösungen richtig zu dimensionieren, was sie praktisch hält.

Die Unternehmen, die 2026 und darüber hinaus mit KI erfolgreich sein werden, sind nicht die, die am schnellsten waren. Es werden die sein, die am bewusstesten vorgegangen sind: ihr Problem verstanden, bevor sie ein Werkzeug gewählt haben, die Kontrolle über ihre Daten behalten und Lösungen gebaut haben, die halten sollen.

Das ist der Massstab, den wir an uns selbst anlegen. Und es ist das, wobei wir unseren Kunden helfen.