Big Data – Trend Report https://trendreport.de Redaktion und Zeitung für moderne Wirtschaft Mon, 27 Nov 2023 11:39:40 +0000 de-DE hourly 1 https://wordpress.org/?v=6.3.2 Schon mal vom Cloud Mindset gehört? https://trendreport.de/schon-mal-vom-cloud-mindset-gehoert/ Sat, 25 Nov 2023 09:42:51 +0000 https://trendreport.de/?p=43167 Kommentar:

Autor: Matthias Körbitzer

Während man am Anfang der 90er-Jahre noch Programmierkenntnisse benötigte, um einen Webserver oder eine Internetseite zu erstellen, kann heute jeder innerhalb weniger Stunden einen Webshop einrichten und die eigenen Produkte einem weltweiten Markt zur Verfügung stellen. Nicht viel anders sieht es in puncto Cloud Computing aus. Entsprechende Services sind längst zu einem festen Bestandteil der IT-Infrastruktur in Unternehmen geworden. Die Vorteile liegen auf der Hand: Die Möglichkeit, schnell zusätzliche Ressourcen bereitzustellen, Workloads zu verschieben oder je nach Bedarf zu skalieren, macht Unternehmen flexibler und widerstandsfähiger in einem immer härter werdenden Wettbewerbsumfeld. Cloud-Kunden brauchen zudem weniger eigene Infrastrukturen, was sich natürlich auch auf die Kapitalbindung sowie das gesamte Betriebsmodell auswirkt. Gewissermaßen trägt die Cloud sogar zur Demokratisierung der Digitalisierung bei – immerhin hat nun jeder Zugriff auf hochmoderne Anwendungen.

Trotzdem: Die Migration in die Wolke ist kein Selbstläufer, wie viele Unternehmen schmerzlich erfahren müssen. Das liegt einerseits an den technischen und organisatorischen Hausaufgaben, die Firmen vorab erledigen müssen. Mindestens genauso wichtig ist ein kultureller Wandel – die Rede ist vom Cloud Mindset. Der Wandel kann auf Business-Seite darin bestehen, auf ein agiles Betriebs- und Geschäftsmodell umzustellen, auf IT-Seite kann er sich darin äußern, dass Silos aufgebrochen werden und agile Denkweisen Einzug halten. Fakt ist allerdings auch, dass in jedem vierten Unternehmen die falsche Unternehmenskultur die Cloud-Migration erschwert beziehungsweise riskanter macht. Zu dieser Selbsteinschätzung kommen jedenfalls die jüngst für eine Studie der Computerwoche befragten Firmen.

Nun, es gibt keine verbindliche Definition des Begriffs „Cloud Mindset“, aber einige Vorstellungen, was damit verbunden ist. Aus Sicht der Finanzabteilung ermöglicht eine „Cloud-Denkweise“ den Übergang von CapEx zu OpEx. Für die IT bedeutet es, von der zeitaufwändigen Anschaffung und Verwaltung von Hardware, Software und Services zu ressourcenschonenden As-a-Service-Angeboten überzugehen, was auch die Frage nach ausreichend geeigneten Skills in einem knappen Personalmarkt adressiert. Und für das Unternehmen selbst liegt der Vorteil darin, schnell zu einem agilen Geschäftsmodell wechseln zu können.

Ich möchte aber noch einen weiteren Aspekt hinzufügen: Mit dem Einzug der Cloud hat sich der Grad der Standardisierung erhöht – Cloud-Lösungen sind keine individualisierten Unternehmenssysteme mehr. Bei As-a-Service-Angeboten werden alle Innovationen, neuen Funktionen und nicht zuletzt aktuellste IT-Security-Lösungen dem gesamten Kundenstamm zur Verfügung gestellt. Das Ziel: sicherere, schnellere und stabilere Funktionalitäten. Dies bedeutet jedoch nicht, dass ein System nicht mit den Bedürfnissen von Unternehmen mitwachsen kann. Wer aber mit sehr individuellen Anforderungen den Gang in die Cloud antritt, hat das Prinzip nicht verstanden. Wer kein etabliertes Vorgehen für die Migration wählt, welches immer Modernisierung, Optimierung und einen gewissen Grad der Standardisierung bereits im Vorfeld einschließt, wird seine gewünschten Ziele nicht erreichen. Der große Vorteil ist doch, dass sich Unternehmen auf ihre Kernaufgaben konzentrieren können und sich wenig Gedanken über die Komplexität der IT machen müssen, von der der Erfolg ihres Geschäftes in Zeiten der Digitalisierung immer stärker abhängig ist.

Damit Cloud-Infrastrukturen selbst nicht zu einem komplexen Konstrukt ausufern, sollten Unternehmen dem Prinzip der Simplifizierung folgen und auf Best Practices zum Beispiel in Form von Managed Services setzen. Und das erfordert nun einmal das richtige Mindset.

 

Gastautor: Matthias Körbitzer, Head of Managed Hybrid Cloud Infrastructure Services & Solution Practice bei NTT Ltd.

 

Aufmacherbild / Quelle / Lizenz
Image by Gerd Altmann from Pixabay

Bildrechte bitte gesondert überprüfen.

Textlizenz: https://creativecommons.org/licenses/by-nd/4.0/deed.de
Autor: Matthias Körbitzer

]]>
Automatisierung & Künstliche Intelligenz https://trendreport.de/automatisierung-kuenstliche-intelligenz-2/ Tue, 21 Nov 2023 14:00:58 +0000 https://trendreport.de/?p=43782 In den kommenden  Jahren werden KI und Automatisierung unsere menschlichen Fähigkeiten erweitern und das Arbeitsleben auf den Kopf stellen.

Da hört und liest man „Aufbruch in eine neue Zeit“, oder „Künstliche Intelligenz verändert uns Menschen und die Welt“, stimmt. ChatGPT kann in unglaublich kurzer Zeit Texte sowie Programmcode verfassen und schreibt Aufsätze. Auch das ganze Internet auszulesen stellt kein Problem mehr dar. Die Technologien entwickeln sich mit einer rasenden Geschwindigkeit. In den kommenden Jahren wird KI als treibende Macht unseren Planeten verändern, unsere menschlichen Fähigkeiten erweitern und das Arbeitsleben auf den Kopf stellen. Aber was passiert da wirklich, trotz der ganzen Euphorie? Der KI-Boom wird weithin als die nächste technologische Revolution angesehen, die das Potenzial hat, eine neue Welle von Start-ups in die Stratosphäre des Silicon Valley zu katapultieren. Im Jahr 2021 verließ eine Gruppe von Ingenieuren OpenAI, weil sie befürchteten, dass sich das Pionierunternehmen für künstliche Intelligenz zu sehr auf das Geldverdienen konzentriert hatte. Stattdessen gründeten sie Anthropic, ein gemeinnütziges Unternehmen, das sich der Entwicklung verantwortungsvoller KI widmet. Vor kurzer Zeit haben die Weltverbesserer von Anthropic einen überraschenden Partner gefunden: Sie gaben eine Vereinbarung mit Amazon im Wert von bis zu vier Milliarden Dollar bekannt. „Doch anstatt die jahrzehntelange Vorherrschaft von Big Tech in der Internetwirtschaft zu brechen, scheint der KI-Boom bisher eher in deren Hände zu spielen. „Hochmoderne KI erfordert riesige Mengen an Rechenleistung – ein Weg, der aufstrebende Unternehmen direkt zu Microsoft, Google und Amazon führt.“, so beschrieb es Gerrit De Vynck, Technikreporter für die Washington Post, diesen Monat. Wir müssen also aufpassen, sonst werden fünf Konzerne unsere Welt von morgen gestalten, oder besser:

Wir brauchen auch in Deutschland und Europa große KI-Modelle, die wir trainieren und die uns kulturell verstehen. Aber wie ist es momentan um den europäischen KI-Markt bestellt? Laut dem Handelsblatt vom 30. Juni, gibt es derzeit 23 KI-Einhörner in Europa und 142 in den USA. In diesem Kontext fließt auch viel Wagniskapital an die Unternehmen und die Aktionäre sind begeistert von der neuen Revolution, winken doch große Gewinne. Es scheint so, dass der KI-Hype die Lust am Gründen befeuert. Unternehmen wie z. B. DeepL oder Aleph Alpha stehen mit an der „KI-Spitze“ Deutschlands. Die KI-Lösungen von Aleph Alpha richten sich mit dem Sprachmodell „Luminous“ vorrangig an an Unternehmen und Behörden. Taxy.io z. B. ist ein Spin-off der RWTH Aachen, das sich mittels künstlich intelligenter Software der Automatisierung in der B2B-Steuerberatung widmet. Die Aachener unterstützen Steuerkanzleien, indem Recherche- und Analysetätigkeiten von Literatur und Mandantenfällen automatisiert werden, wodurch mehr Zeit für die eigentliche Beratung bleibt. Dafür macht sich Taxy.io Technologien aus der Computerlinguistik und der künstlichen Intelligenz zunutze. Über eine spezielle, semantische Suchtechnologie kann passendes Steuerfachwissen aus Datenbanken abgerufen, zugeordnet und verarbeitet werden. Die KI von Taxy.io ordnet zudem neue Gesetzesänderungen, juristische Kommentare oder Handlungsempfehlungen automatisch individuellen Mandanten zu und identifiziert Beratungsanlässe. Im Gespräch mit der Redaktion erklärte Sven Peper: „Mit der Mission, Unternehmen aus diesem Steuerdschungel zu befreien, haben wir 2018 Taxy.io gegründet und uns darauf konzentriert, gutachterliche Tätigkeiten für Steuerkanzleien und Steuerabteilungen effizienter zu gestalten. Dabei war das Thema künstliche Intelligenz ein elementarer Teil unserer DNA.“

Automatisierung und KI

Der Einsatz von KI wird in vielen Bereichen einen technologischen Sprung ermöglichen, auch in der Automatisierung. In den Digitalisierungsbestrebungen vieler Unternehmen sind Automatisierungsprozesse mittlerweile fest in der Unternehmensstrategie verankert.

Der Einsatz von Robotic Process Automation und intelligenter Automatisierung ist für mittelständische und große Unternehmen wichtiger denn je. Die Vorteile liegen auf der Hand: Kostenreduktion repetitiver Tätigkeiten, Mitarbeiterentlastung zur Fokussierung auf wertschöpfende Tätigkeiten, Prozessstabilität und die Reduzierung der Abhängigkeit vom Fachkräftemangel, was zurzeit besonders wichtig ist. In diesem Kontext betonte Fabian Czicholl, von Appian im Gespräch mit der Redaktion: „Automatisierung ist für Unternehmen kein ‚Nice-to-have‘ mehr, sondern ein ‚Must-have‘.  Appian wurde erst im Oktober 2023 im Gartner Magic Quadrant für Enterprise-Low-Code-Anwendungsplattformen als führend eingestuft. Die Plattform modernisiert Low-Code-Entwicklung und Prozessautomatisierung, indem sie Innovation, Effizienz und Wachstum mit generativer KI vorantreibt. „Was uns unserer Meinung nach von anderen Low-Code-Anbietern unterscheidet, ist der Fokus auf Prozessautomatisierung mit künstlicher Intelligenz“, ergänzt Michael Beckley, CTO und Gründer von Appian. „Unsere Low-Code-Private-AI ermöglicht es Unternehmen, generative KI heute sicher zu nutzen. Darüber hinaus ermöglicht unsere ‚Data Fabric‘ die einfache Integration von privater KI in jeden Geschäftsprozess.“ In diesem Kontext bezieht sich Hyperautomatisierung im Wesentlichen auf den Einsatz intelligenter Technologien wie robotergesteuerte Prozessautomatisierung, Low-Code-/No-Code-Plattformen, künstliche Intelligenz und maschinelles Lernen, um möglichst viele Prozesse zu identifizieren und zu automatisieren.

Aufbruch zur Transformation KI und ML verändern uns und unsere Welt.

KI-Sprachmodelle wie ChatGPT bieten ein enormes Potenzial, Prozesse effizienter zu gestalten, die Qualität im Unternehmen zu sichern und neue Kundenmehrwerte zu schaffen. Unternehmen, die schon heute auf diese disruptive Technologie setzen, verschaffen sich zudem einen Wettbewerbsvorteil Generative-AI-SaaS-Anwendungen bringen aber auch erhebliche Risiken für die Datensicherheit mit sich. Unternehmen und Datenschutzteams sollten sich vor der Implementierung von KI-Lösungen mit der DSGVO und den geltenden Regeln beschäftigen. Gerade beim Einsatz von Large Language Models wie ChatGPT ergeben sich datenschutzrechtliche Bedenken. User können z. B. personenbezogene Daten eingegeben, sodass auch die generierten Antworten personenbezogene Daten enthalten können. Für diese Verarbeitung liegt normalerweise keine Rechtsgrundlage vor, da der Anwender zuvor keine Einwilligung erteilt hat. Außerdem haben die größten KI-Modelle ihre Server in den USA, sodass die Daten in ein datenschutzrechtlich unsicheres Drittland übermittelt werden. Für die Verwendung im Unternehmen müsste dann sogar ein Auftragsverarbeitungsvertrag inklusive Standardvertragsklauseln gefertigt werden. Um den Datenschutz zu gewährleisten, sichern diverse Tools sensible Daten beim Einsatz generativer KI-Anwendungen. Die Netzwerk- und Cloudsecurity-Spezialisten von Netskope bieten automatisierte Tools für Sicherheitsteams, um kontinuierlich zu überwachen, auf welche Anwendungen (z. B. ChatGPT) Unternehmensbenutzer zugreifen möchten. Das Unternehmen wurde von renommierten Ingenieuren und von führenden Sicherheits- und Netzwerkanbietern wie Palo Alto Networks, Juniper Networks, Cisco und VMware gegründet.

Training und wieder Training

Ein Problem, mit dem viele Unternehmen regelmäßig konfrontiert werden, wenn sie Machine Learning (ML) und KI für ihre Zwecke einsetzen wollen, liegt in der fehlenden Rechenleistung und den technischen Ressourcen. Firmen, die beispielsweise eine automatisierte Qualitätsprüfung der Produktion mittels aufgenommener Bilder durchführen möchten, benötigen unter normalen Umständen mehrere 10.000 Bilder und mehr, um ein gut funktionierendes neuronales Netz zu trainieren.

Nicht nur die Menge an benötigten Bildern stellt ein Problem dar, sondern vor allem auch das Training des neuronales Netzes an sich. Die Komplexität ist so hoch, und erfordert jede Menge Rechenleistung, um brauchbare Ergebnisse zu erzielen. Mit den normalen Möglichkeiten, die Unternehmen zur Verfügung stehen, wird es recht anspruchsvoll eigene KI-Modelle zu trainieren. Es kommt eben auch auf den Anwendungsfall und den jeweiligen Prozess an. Vorgefertigte KI-Modelle beziehen sich auf Modelle, die vor ihrem Einsatz auf einem großen Datensatz trainiert wurden. Diese Modelle haben bereits Muster und Merkmale aus den zur Verfügung gestellten Daten gelernt. Dies spart Zeit und Ressourcen. Sie lassen sich so verwenden, wie sie sind. Oder sie werden mit spezifischen Daten, die sich auf die jeweilige Aufgabe beziehen, weiter verfeinert. Dazu erklärte unserer Redaktion Martin Weis von Infosys: „Infosys Topaz profitiert von den Vorteilen von mehr als 150 vortrainierten KI-Modellen unter seinen mehr als 12.000 KI-Assets, um das Potenzial von Menschen, Unternehmen und Gemeinschaften zu erweitern. Die Funktion ‚Document Comprehension‘ zeigt beispielsweise ein vortrainiertes Modell, das Dokumente in der Realität versteht und verarbeitet.“

Die EU KI-Gesetzgebung:

Unternehmen aus der EU, die heute schon KI-Anwendungen zum Einsatz bringen oder gerade entwickeln, sollten sich jetzt schon mit den neuen Regeln der KI-Verordnung auseinandersetzen.

Auch wenn das Gesetz noch nicht beschlossen wurde, lohnt es die aktuellen Vorschläge und Anträge zu studieren. Die geplante KI-Verordnung, ist ein Prestigeprojekt der EU. Es ist zu erwarten, dass das groß angelegte Regulierungsvorhaben die Verbreitung und den Einsatz von künstlicher Intelligenz in der EU und über ihre Grenzen hinaus, erheblich beeinflussen wird. Sieht man sich in diesem Kontext die aktuelle Diskussion und den Denkansatz der Politik an, so wird in der Ampelkoalition die Forderung laut, den Einsatz von KI-Technologie zu besteuern. „Grundsätzlich kann man darüber nachdenken“, sagte der Co-Chef der SPD-Linken, Sebastian Roloff, im Juni erst dem Handelsblatt. „Die Idee der KI-Steuer gleicht dem Konzept der Maschinensteuer, die auch bisher schon ins Spiel gebracht wurde, wenn technischer Fortschritt Arbeitsplätze und damit Einnahmen des Staates wegfallen lässt.“

Ob das der richtige Zeitpunkt ist, das Thema anzuschneiden, ist fraglich. Gerade jetzt, wo doch die „Fabrik der Zukunft“ und Industrie 4.0 die Chancen bieten, den Industriestandort Deutschland wieder fit zu machen. Übrigens auch im Hinblick auf die Möglichkeiten, die durch KI und ML für unseren Standort und neue Geschäftsmodelle entstehen. Für alle Unternehmen, die sich gerade auf der Transformationsreise befinden, ist die Verunsicherung groß.

Autor: Bernhard Haselbauer

 

Trend-Termine KI-Events KI-X – Die KI-Konferenz für HR, 19. bis 20. März 2024, Berlin Hannovermesse – KI & Maschinelles Lernen 22. bis 26. April 2024, Hannover IT-Trans – Intelligente Lösungen im Personenverkehr, 14. bis 16. Mai 2024 Karlsruhe Contra – Die KI Marketing Konferenz, 05. bis 06. Juni 2024, Düsseldorf Vision – Weltleitmesse für Bildverarbeitung, 08. – 10. Oktober 2024, Stuttgart

————————————————————

Werke zum Thema

Sie interessieren sich für die neuen Technologien rundum KI und ML?

Wir auch!

Wie KI-Lösungen- und Modelle heute angewendet werden, haben wir für Sie auf unseren Webseiten zusammengetragen. Mit Fallbeispielen, Interviews und Gastbeiträgen, zeigen wir auf, wie neue Geschäftsmodelle entstehen, funktionieren und implementiert werden können.

https://trendreport.de/tag/kuenstliche-intelligenz/

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

]]>
Wir ermöglichen der KI eine erstklassige Ausbildung! https://trendreport.de/wir-ermoeglichen-der-ki-eine-erstklassige-ausbildung/ Tue, 21 Nov 2023 09:04:16 +0000 https://trendreport.de/?p=43717 Automatisierte Datenströme sind die Grundvoraussetzung für datenbasier­te Entscheidungen im Unternehmen. Nicht nur das: Moderne Lösungen spa­ren Zeit sowie Geld und wirken gegen den Fachkräftemangel in der IT, berich­tet Gastautor Alexander Zschaler, Regi­onal Vice President DACH von Fivetran.

 

Daten sind das neue Öl. Wie Unterneh­men diesen wichtigen Rohstoff nutzen, variiert stark und hängt von verschiede­nen Faktoren ab. Entscheidend ist aber, dass in vielen Fällen nur wenige Prozent der verfügbaren Daten als Grundlage für Businessentscheidungen verwendet werden. Unternehmen könnten also viel smarter und fundierter agieren. Daten­silos, Probleme mit Datenqualität, Res­sourcenmangel und mehr verhindern das. Mit der Nutzung von KI wird die Be­deutung qualitativ hochwertiger Daten noch offensichtlicher: Wie können ver­lässliche und rechtssichere Ergebnisse erzielt werden? Die Basis dafür ist die zentrale Bereitstellung von qualitativ hochwertigen Daten, auf die KI-Bots, Machine-Learning-Modelle und andere Tools zugreifen können. Eine aktuelle Umfrage von Fivetran zeigt, dass neun von zehn Unternehmen nicht die Auto­matisierungsfähigkeiten haben, um ak­tuelle und relevante Daten zeitnah in entscheidende Umgebungen einzuspei­sen. Experten schätzen, dass die dafür zuständigen Datenspezialisten in Unter­nehmen etwa ein Drittel ihrer Arbeits­zeit mit ineffizienten Datenprozessen verbringen – Zeit, die sie eigentlich für andere Dinge einsetzen sollten.

Fivetran automatisiert Daten­ströme aus Hunderten von Quel­len in Echtzeit.

Die Lösung für diese Herausforderung liegt im automatisierten Data Move­ment: Die Replikation von Daten aus al­len erdenklichen Quell-Systemen in Zielsysteme (wie z. B. andere Datenban­ken oder KI-Tools) ermöglicht den Echt­zeitzugriff auf alle Daten in einem Unter­nehmen. Dabei müssen die Geschäfts­prozesse nicht den einzelnen Abteilungen angepasst werden. So kön­nen Unternehmen sicherstellen, dass alle, die an oder mit Daten arbeiten (oder auch eine KI), immer die aktuells­ten Daten verwenden. Dadurch sind alle Ergebnisse vertrauenswürdig. Zudem können Unternehmen durch Automati­sierung die Regeln zur Nutzung vordefi­nieren. Eine Lösung wie die von Fivetran automatisiert alle Arten von Data Move­ment: Sie lässt riesige Datenmengen aus Hunderten von Datenquellen via Kon­nektoren über Datenpipelines in einem Data Warehouse oder in einem Data Lake zusammenfließen – egal woher die Daten kommen: aus SAP, Oracle, Sales­force oder von Google, Facebook und al­len möglichen Quellen und Formaten. Dank dieses Ansatzes können sich Data Engineers, die ursprünglich für diese Aufgabe zuständig waren, auf weitaus bedeutsamere Projekte konzentrieren, ohne sich um die Verwaltung der Daten­pipelines kümmern zu müssen.

In Deutschland gehören Unternehmen wie Douglas, Hermes, Lufthansa, Sie­mens, VW Financial Services und West­wing bereits zu denjenigen, die sich auf den Weg in die Zukunft gemacht haben: Sie entscheiden auf Basis rechtssicherer Echtzeitinformationen, die wiederum auf der Lösung von Fivetran basieren.

 

Alexander Zschaler: „Die Qualität einer KI steht und fällt mit der Qualität der zugrunde liegenden Daten.“

 

 

 

 

 

www.fivetran.com

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:

  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.

Unter den folgenden Bedingungen:

  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 

 

 

]]>
Cybersicherheit ist keine Hürde! https://trendreport.de/cybersicherheit-ist-keine-huerde/ Tue, 21 Nov 2023 09:00:41 +0000 https://trendreport.de/?p=43882 Ilona Simpson, Chief Information Officer EMEA bei Netskope, erläutert der TREND-REPORT-Redaktion die
steigende Bedeutung von SASE im Kontext von Cloud-Computing und der digitalen Transformation.

 

Frau Simpson, welche Rolle spielt heute eine moderne Sicherheitsarchitektur?
Die Arbeitswelt hat sich für immer verändert, weil sich Benutzer von überall aus anmelden: im Büro, zu Hause, in einem Café oder am Flughafen. Heutzutage müssen Sicherheitsteams Unternehmensdaten schützen, unabhängig davon, wo sie sich befinden oder übertragen werden, und durch diesen Wandel nehmen die Schwachstellen erheblich zu. Benutzer haben auch einen größeren Bedarf an Transparenz darüber, wo und wie Daten verwendet werden. Eine gut implementierte moderne Sicherheitsarchitektur, die auf Zero-Trust-Prinzipien basiert, ermöglicht es Mitarbeitern, von zu Hause oder privaten Netzwerken aus sicher und zuverlässig auf das Web, die Cloud und Apps zuzugreifen. Sie ermöglicht außerdem eine effizientere Netzwerkarchitektur, die für die Performance in Büros und Zweigstellen optimiert werden kann, während sie von Unternehmens- oder privaten Geräten aus gleichermaßen effektiv ist und mit IoT-Umgebungen sicher interagiert.

Wie kann damit die Agilität von Unternehmen verbessert werden?
So wie Reiseversicherungen Touristen das Vertrauen geben, die Welt zu sehen, gibt eine starke und moderne Sicherheit Führungskräften das Mandat und die Plattform für Innovationen. Bis vor kurzem konzentrierte sich die Sicherheitsarchitektur auf die Fähigkeit, binäre „Zulassen oder Blockieren“-Entscheidungen auf der Grundlage der Zero-Trust-Prinzipien zu treffen, sodass sie zwangsläufig den Ruf erlangte, eine untragbare Hürde für Innovationen zu sein. Zum Glück ändern sich die Dinge jetzt. Sicherheit entwickelt sich endlich weiter, um „intelligenter“ zu werden; sie ist in der Lage, Nuancen und Zusammenhänge zu erkennen und darauf agil und flexibel aufzubauen. Sicherheit ermöglicht es Unternehmen heute, Logistikabläufe, Lieferketten, Handels- und Servicebereitstellungsmodelle, Partnerschaften und geografische Präsenzen sicher hinzuzufügen, zu ändern oder zu stärken, während sie den Weg zu einem erfolgreichen Geschäftsergebnis beschreiten.

Inwieweit beeinflusst SASE das Tagesgeschäft?
In einer idealen Welt sollte Sicherheit unsichtbar sein, abgesehen von intelligenten Coaching-Eingabeaufforderungen, die den Benutzern helfen, fundierte Entscheidungen zu treffen. Eine moderne Cloud-Sicherheitsarchitektur kann hinter den Kulissen arbeiten, um intelligente Entscheidungen zu erkennen und zu treffen und so Bedrohungen in Echtzeit abzuwehren. SASE bietet Benutzern schnellen, zuverlässigen und sicheren Zugriff auf das Web, die Cloud und private Apps von jedem Gerät und Standort aus. Für IT- und Sicherheitsteams bedeutet das geringere Kosten und Komplexität durch Konsolidierung und Modernisierung. Durch die Zusammenführung mehrerer Sicherheitsdienste auf einer einzigen cloudbasierten SASE-Plattform werden von Anfang an enorme Einsparungen erzielt, sodass Unternehmen den Zyklus regelmäßiger großer Investitionen in separate Sicherheitsdienste und -geräte durchbrechen können.

 

 

Ilona Simpson zum Thema: „SASE“

Als Begriff beschreibt SSE (Security Service Edge) die Konvergenz mehrerer zuvor unterschiedlicher Sicherheitstechnologiekategorien, darunter Cloud Access Security Broker (CASB), Secure Web Gateway (SWG), Zero Trust Network Access (ZTNA) und Firewall-as-a-Service (FWaaS). Allerdings ist SSE nur eine Komponente für Unternehmen, die eine vollständig sichere und direkte Lösung suchen. SASE geht noch einen Schritt weiter, indem es SSE-Netzwerksicherheitsfunktionen mit optimierten WAN-Funktionen kombiniert, einschließlich Software Defined Wide Area Network (SD-WAN). SASE stellt sicher, dass diese wichtigen Dienste von einer perfekt einheitlichen Plattform bereitgestellt werden, sodass IT-Teams die Versprechen der Cloud und der digitalen Transformation vollständig einhalten können.

 

 

 

Welche Vorteile haben Unternehmen, die mit Ihren Cloud-Sicherheitslösungen arbeiten?
Die Netskope SASE-Lösung ermöglicht die Zukunft der Arbeit. Sie definiert Risikomanagement und Datenschutz neu und vereinfacht den Betrieb. Netskope hilft Ihnen, die Performance zu steigern und bietet unübertroffene Transparenz in allen Cloud-, Web- und privaten Anwendungsaktivitäten. Um eine sichere Zusammenarbeit zu ermöglichen, gleichen wir Vertrauen und Risiko mit granularen Zero-Trust-Kontrollen ab, die sich an Veränderungen in ihrer Umgebung anpassen. Netskope SASE schützt vor fortschrittlichen und cloudbasierten Bedrohungen und schützt Daten, wo auch immer sie sich befinden, und sorgt gleichzeitig für ein schnelles Benutzererlebnis sowie vereinfachte Abläufe. Darüber hinaus basiert Netskope Intelligent SASE auf der Netskope Security Cloud, einer Plattform, die unübertroffene Transparenz und Echtzeit-Daten- und Bedrohungsschutz beim Zugriff auf Cloud-Dienste, Websites und private Apps von überall aus und auf jedem Gerät bietet.

Welche Faktoren treiben eigentlich die Nachfrage nach SASE an?
Der Aufstieg von Remote Work, gepaart mit der Verlagerung von Daten und Anwendungen in die Cloud durch Unternehmen, hat zu einem explosionsartigen Anstieg der Akzeptanz von Cloud-Diensten geführt. Unternehmen erkennen mittlerweile, dass die traditionelle Sicherheitsarchitektur für dieses wachsende Datenvolumen nicht geeignet ist, und Unternehmen, die ihre Sicherheit nicht auf einen einheitlichen Zero-Trust-Ansatz umstellen, setzen ihre digitale Infrastruktur zunehmend Cyberrisiken aus. Jüngste Beispiele von Angriffen auf die Lieferkette und das wachsende Interesse an der Einführung von KI-Tools haben dieses Feuer nur noch weiter angeheizt. Dieser schnelle technologische Wandel hat dazu geführt, dass Unternehmen erkannt haben, dass sie die Implementierung ihrer Sicherheit überdenken müssen, und SASE bietet eine vielseitige Lösung.

https://www.netskope.com/de/

 

 

CC BY-ND 4.0 DE

https://creativecommons.org/licenses/by-nd/4.0/deed.de#

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

 


Unser persönliches Gespräch mit Ilona Simpson, haben wir auf englisch geführt.

 

Ms Simpson, what role does a modern security architecture play in the way we work now and in the future?
The working world has changed forever because users log in from anywhere: the office, home, in a cafe or airport. Today, security teams must protect company data regardless of where it lives or travels, and vulnerabilities expand significantly with this shift. Users also have greater demand for visibility over where and how data is being used.

A well implemented modern security architecture based on zero trust principles allows employees to safely and reliably access the web, cloud and apps from home or private networks. It also allows for more efficient network architecture that can be optimised for performance in offices and branches, while also being equally as effective from corporate or personal devices, and safely interacting in IoT environments.

Ms Simpson, how can a modern security architecture improve the agility of companies today?
Just as travel insurance gives tourists the confidence to see the world, strong and modern security gives business leaders the mandate and platform to innovate.

Until recently, security architecture has focused on the ability to make binary ‘allow or block’ decisions based on the principles of zero trust, so inevitably it’s built a reputation as a prohibitive roadblock to innovation. Luckily, things are now changing. Security is at last evolving to become „smarter“; able to see nuance and context, upon which it can build agility and flexibility.

Security today allows businesses to safely add, amend or strengthen logistics workflows, supply chains, commercial and service delivery models, partnerships and geographic footprints as they navigate the path to a successful business outcome.

Should cybersecurity still be seen as a hurdle for business today?
As security leaders, we need to be better at telling our fellow executives, board members and business leaders that cybersecurity is no longer an impediment to business. Quite the opposite, a robust and dynamic cybersecurity posture enables businesses to be bolder.

Take AI for example, many businesses are sitting on a wealth of data and have aspirations to use AI tools to bring new insights and efficiencies. However, they are also concerned about giving away that data to a vendor, who might in turn work with a competitor that benefits from your corporate IP. With modern security architecture, companies can safely adopt AI tools, safe in the knowledge that their data is secure.

SASE helps make digital transformation possible. While security architecture transitions might be seen as strenuous, the reward of implementing an intelligent security posture that safeguards your data, particularly those that incorporate crucial zero trust principles, far outweighs this concern.

Why have cybercriminals changed their approach and are exploiting new attack surfaces in the cloud?
The cloud offers criminals the ability to expand their attacks beyond a single instance to potentially impact a whole global enterprise, and even hold an entire supply chain to ransom.

Criminals are incredibly innovative and can often exploit technological advancements with greater ease and velocity than businesses because they do not operate within the boundaries and constraints of law-abiding organisations. They are not regulated or governed, but are often well funded and well-coordinated. The result is that businesses need a security posture that gives them complete visibility over their data and digital infrastructure to spot attacks as soon as they happen.

What does cloud-based, data-centric SSE actually mean?
As a term, SSE (Security Service Edge) describes the convergence of several previously distinct security technology categories, including cloud access security broker (CASB), secure web gateway (SWG), Zero Trust Network Access (ZTNA), and Firewall-as-a-Service (FWaaS).

However, SSE is only one component for organisations in search of a fully secure and direct solution. SASE goes one step further by combining SSE network security functions with optimised WAN capabilities, including software defined wide area network (SD-WAN). SASE ensures that these critical services are provided from one perfectly unified platform, enabling IT teams to fully deliver on the promises of cloud and digital transformation.

Ms Simpson, what factors are driving demand for SSE?

The rise of remote work, paired with businesses shifting their data and applications to the cloud, has caused the adoption of cloud-delivered services to explode. Businesses now recognise that traditional security architecture is not appropriate for this increasing volume of data, and those that do not update their security toward a unified, zero trust approach are leaving digital infrastructure increasingly exposed to cyber risk. Recent examples of supply chain attacks and the wave of interest in adopting AI tools has only added fuel to this fire.

This rapid technological change has caused businesses to recognise that they need to rethink how they implement their security, and SASE provides a versatile solution.

Ms Simpson, how do modern solutions differ from traditional security architectures?
Traditional security architectures revolved around a secure perimeter usually for an on-premises model. However, as the need for secure remote access increased and businesses shifted to the cloud, there were greater strains on network bandwidth and an increase in the number of potential vulnerabilities. Security was often an afterthought, with organisations implementing a patchwork of tools to block or allow access from both inside and outside the perimeter.

SASE puts security firmly in the cloud, delivering clarity for organisations over their security architecture, embedding zero trust controls while simultaneously delivering greater visibility over network activity and, of course, an accelerated performance.

Ms. Simpson, what are the benefits for companies that work with your cloud security solutions?
The Netskope SASE solution enables the future of work. It redefines risk management and data protection, and simplifies operations. Netskope helps you accelerate performance and provide unrivalled visibility into any cloud, web, and private application activity. To empower safe collaboration, we balance trust against risk with granular zero trust controls that adapt to changes in your environment.

Netskope SASE protects against advanced and cloud-enabled threats and safeguards data wherever it lives while also delivering a fast user experience and simplified operations.

Additionally, Netskope Intelligent SASE is built on the Netskope Security Cloud, a platform that provides unrivalled visibility and real-time data and threat protection when accessing cloud services, websites, and private apps from anywhere, on any device.

What role will the new technologies around ML and AI play in IT security management?
Many tools within a SASE architecture sit at crucial security decision points, and this is where AI and ML technologies are having significant impact, particularly in identifying threats and optimising decision making. At Netskope we have over 100 AI and ML patents with use cases that range from improving data classification, with an emphasis on identifying PII and other sensitive data, and automated implementations of security controls according to set company policies. Given the volume of data now generated by a modern business, the only way to analyse, categorise, apply agreed policies and take action to mitigate threats in real time is to utilise AI and ML tools.

This is especially relevant as attackers start to use their own AI tools to attack businesses, the only way to police AI is to use AI, a single human response is insufficient.

https://www.netskope.com/de/

 

]]>
Data Science: Books, books books https://trendreport.de/datascience/ Fri, 14 Jul 2023 13:58:42 +0000 https://trendreport.de/?p=41896 Werke zum Thema

100+ kostenlose Bücher zum Thema Datenwissenschaft! Hier finden Sie eine Sammlung der besten kostenlosen Bücher zu den Themen Data Sci-
ence, Big Data, Data-Mining, maschinelles Lernen, Python, R, SQL, NoSQL und mehr aus dem Internet.

 

Bücher

Eine kleine Auswahl der Bücher:

The LION Way: Machine Learning plus Intelligent Optimization
by Roberto Battiti, Mauro Brunato

https://intelligent-optimization.org/LIONbook/

Download or read it online for free here:
Download link
(10MB, PDF)

 

 

Natural Language Processing with Python

— Analyzing Text with the Natural Language Toolkit

Steven Bird, Ewan Klein, and Edward Loper

https://www.nltk.org/book_1ed/


Wenn Sie auf der Suche nach noch mehr Lernmaterial sind,
sollten Sie sich auch die Onlinekurse zu Data Science auf der Plattform ansehen.

Onlinekurse

Top 8 Online Data Science Courses — 2023 Guide & Reviews: https://www.learndatasci.com/best-data-science-online-courses/

 


Mehr Bücher und Kurse finden Sie unter:

https://www.learndatasci.com/free-data-science-books/

 


 

Aufmacherbild / Quelle / Lizenz
Foto von Pixabay: https://www.pexels.com/de-de/foto/bucher-im-regal-in-der-bibliothek-256517/

]]>
Mobilitätswende: den Wandel möglich machen https://trendreport.de/mobilitaetswende-den-wandel-moeglich-machen/ Fri, 14 Jul 2023 08:53:26 +0000 https://trendreport.de/?p=41757 Arjan van Staveren, Country Manager Germany bei Snowflake, erläutert in seinem Gastbeitrag, wie Scania und Snowflake den Wandel im Güterverkehr ermöglichen.

Für den Güterverkehr gleicht die Mobilitätswende einem nie dagewesenen Kraftakt. Schon jetzt werden im Jahr mehr als 3,7 Milliarden Tonnen über das deutsche Straßennetz transportiert – und die Tendenz ist weiter steigend. Das wird nicht nur für den Verkehr zunehmend zum Problem. Auch das Klima leidet, denn Studien belegen, dass LKWs für rund 10 Prozent der globalen CO2-Emissionen verantwortlich sind. Dank besserer Technik ist der Ausstoß pro Tonnenkilometer in Deutschland zwar gesunken, da der Güterverkehr auf den Straßen aber zugenommen hat, wurden die Einsparungen laut Umweltbundesamt sogar überkompensiert.

Was es braucht, sind also neue Lösungen, die den bestehenden Lieferketten bei gleichzeitig geringen Emissionen gerecht werden können. Eine Möglichkeit, beides miteinander in Einklang zu bringen, sind Fahrzeuge mit Elektroantrieb. Ihre Anzahl ist allein in den vergangenen zwei Jahren um knapp 80 Prozent gestiegen. Allerdings bringt die alternative Antriebsform auch neue Herausforderungen mit sich, auf die das deutsche Straßennetz schlichtweg noch nicht vorbereitet ist. Daran möchte Scania unbedingt etwas ändern. Der weltweit führenden Anbieter von Transportlösungen führt nicht nur LKWs, Busse sowie Industrie- und Schiffsmotoren im Portfolio, sondern bietet darüber hinaus auch datengestützte Dienstleistungen an, deren Ziel es ist, die Mobilitätswende aktiv voranzutreiben.

Wie groß ist die Reichweite einer Batterie?
Wo müssen zusätzliche Ladesäulen installiert werden?
Und auf welcher Route wird am wenigsten CO2 erzeugt?

Daten sind das Rückgrat der Mobilitätswende

Auf den ersten Blick erscheinen E-LKWs als gute Lösung, um den Güterverkehr auf deutschen Straßen umweltfreundlicher zu gestalten. Wie die vergangenen Jahre eindrucksvoll bewiesen haben, handelt es sich bei den Lieferketten jedoch um extrem fragile Verkettungen einzelner Prozesse, in der sich die wohl wichtigste Komponente nicht ohne Weiteres austauschen lässt. In der Praxis besteht deshalb noch immer ein großer blinder Fleck – und dieser muss zunächst durch eine valide Datengrundlage behoben werden. Wie groß ist die Reichweite einer Batterie? Wo müssen zusätzliche Ladesäulen installiert werden? Und auf welcher Route wird am wenigsten CO2 erzeugt? Bevor eine Logistikflotte, die bisher fossil betrieben wurde, auf elektrische Antriebsformen umgesattelt werden kann, gilt es, all diese offenen Fragestellungen zu klären. Scania ist auf ganz unterschiedliche Weise daran beteiligt, belastbare Antworten auf die Herausforderungen zu finden, die mit der Mobilitätswende einhergehen. Einerseits testet das Unternehmen derzeit den Einsatz autonomer Bergbau-LKWs, andererseits ist es am Bau mehrerer E-Straßen beteiligt, auf denen überprüft wird, inwiefern Oberleitungen einen nachhaltigen Gütertransport in Europa ermöglichen können. Konnektivität spielt dabei eine zentrale Rolle. Schon jetzt betreibt Scania über 600.000 vernetzte Fahrzeuge, über die jeden Tag 150 Millionen Meldungen direkt und nahezu in Echtzeit in die Data Cloud von Snowflake einfließen.

Dezentrale Strukturen gewähren tiefere Erkenntnisse

Um innovative Mobilitätsprojekte umsetzen zu können, sind große Datenmengen allein aber noch lange nicht ausreichend. Entscheidend ist die richtige technologische Grundlage, die dabei hilft, diese zu analysieren und Zusammenhänge zu erkennen, um smarte Handlungsempfehlungen abzuleiten. Hierfür setzt Scania auf ein Data Mesh-Konzept. Normalerweise gibt es nur ein einziges Team, das alle Datenquellen in ein zentrales Depot integriert. Über spezifisches Wissen, das sich auf die unterschiedlichen Abteilungen bezieht, verfügt es in der Regel nicht. Für die Qualität der Daten wird dies allerdings häufig zum Problem.

Bei einem Data Mesh ist das anders. Da es sich hierbei um einen dezentralen Ansatz zur Verwaltung und Bereitstellung von Daten handelt, gibt es mehrere Datenteams, die für die Belange der verschiedenen Abteilungen verantwortlich sind. Aufgrund des fachlichen Wissens, über das die einzelnen Teams verfügen, können die geschäftlichen Zusammenhänge ihrer Abteilung besser nachvollzogen werden, was letztlich dabei hilft, große Datenmengen gewinnbringender – und damit auch ressourcenschonender – einzusetzen.

So wird dank des Data Mesh-Konzepts zum Beispiel ersichtlich, welche Strecken (noch) nicht für Elektro-LKWs geeignet sind oder wie sie das Maximum aus ihrer Batterielaufzeit herausholen können. Auch Wartungen lassen sich besser planen, um Ausfälle und damit auch Störungen der Lieferkette auf ein Minimum zu reduzieren. Scania und Snowflake wissen, dass Erkenntnisse wie diese unverzichtbar sind, um die Mobilitätswende auf eine solide Basis zu stellen. Deshalb helfen sie mit vereinten Kräften dabei, den größtmöglichen Mehrwert aus den verfügbaren Daten zuziehen. Am Ende ist es nur auf diese Weise möglich, den Güterverkehr umweltfreundlicher zu gestalten, während Planbarkeit und Zuverlässigkeit auf einem gewohnt hohen Niveau bleiben.

www.snowflake.com/de/

Im Portrait: Arjan van Staveren ist heute Country Manager Germany bei Snowflake. Er war 2017 der erste deutsche Mitarbeiter beim Data-Cloud-Unternehmen Snowflake. Heute ist er als Country Manager Germany für den deutschen Markt verantwortlich. Vor Snowflake hatte Arjan van Staveren leitende Positionen im Vertrieb bei Microsoft und Bazaarvoice.


Im Gespräch mit Arjan van Staveren

Herr van Staveren, was bedeutet Data Mesh? 

Ein Data Mesh ist ein dezentraler Ansatz zur Verwaltung und Bereitstellung analytischer Daten. Das bedeutet, dass es sich maßgeblich von anderen IT-Strukturen unterscheidet, in denen alle Datenquellen in einem zentralen Depot zusammenfließen. Während hier ein einziges Datenteam für die Integration und Bereitstellung aller Daten verantwortlich ist, zeichnet sich eine Data Mesh-Architektur durch mehrere Datenteams aus. Anstatt große Datenmengen zentral zu verwalten, kümmern sie sich um die Belange einer einzelnen Abteilung, erstellen hier qualitativ hochwertige Datenprodukte und machen diese unternehmensweit zugänglich.

Welche Vorteile haben Konzerne, die auf eine Data Mesh-Architektur setzen? 

Mit einem Data Mesh hat die klassische „One-fits-all“-Lösung endlich ausgedient. Anders als bei einem zentralen Ansatz haben die Datenteams hier nicht nur genügend Zeit, sich auf die Bedürfnisse ihrer jeweiligen Abteilung zu konzentrieren, sondern verfügen bestenfalls bereits im Vorfeld über das fachliche Know-how, das in ihrem Bereich eine besonders wichtige Rolle spielt. So helfen die Datenteams in einem Data Mesh dabei, typische Bottlenecks zu vermeiden und können stattdessen die Datenagilität und -qualität für ihre jeweilige Abteilung dauerhaft verbessern. So bekommen Unternehmen die Chance, abteilungsübergreifend das Maximum aus ihren Daten herauszuholen.

Welche Rolle spielen dabei Cloud-Plattform-Technologien? 

Völlig unabhängig davon, ob ein Unternehmen einen zentralen oder einen dezentralen Ansatz zur Datenverwaltung und -bereitstellung verfolgt – liegt diesem keine skalierbare und leicht zugängliche Cloud-Plattform zugrunde, wird es sich schon bald in einer Sackgasse wiederfinden. Auch wenn es in einem Data Mesh so wirkt, als wären die Abteilungen voneinander isoliert, so besteht das Ziel doch darin, die Daten übergreifend zugänglich zu machen. Dank Technologien wie der Data Cloud von Snowflake ist genau das möglich. Sie bietet branchenübergreifend die ideale Grundlage, um Daten sowohl innerhalb eines Unternehmens, als auch mit externen Parteien wie Geschäftspartner:innen oder Lieferant:innen zu teilen.

Für welche Branchen können Sie Lösungen anbieten?

Vom Handel bis hin zum Finanzsektor: Daten für smartere Entscheidungen heranzuziehen, ist für jede erdenkliche Branche längst unverzichtbar geworden. Während es in der Produktion dadurch zum Beispiel möglich wird, Lieferengpässe bestimmter Rohstoffe rechtzeitig einzukalkulieren, können in der Medizin datenbasiert bessere und individuellere Behandlungsmethoden angeboten werden. Um bestmöglich auf die Bedürfnisse der verschiedenen Branchen eingehen zu können, bietet Snowflake für jede von ihnen eine schlüsselfertige Data Cloud-Lösung, mit der es möglich ist, Daten in unterschiedlichsten Formaten zu integrieren und praktisch nutzbar zu machen.

Gerade das neue ESG-Reporting stellt für viele Unternehmen eine Herausforderung dar. Wie kann Snowflakes Data Cloud hier helfen?

Konkrete ESG-Ziele festzulegen, ist nur der erste Schritt. Um einen breiten Überblick zu gewinnen, ist es wichtig, sowohl auf interne als auch auf externe Datenquellen zuzugreifen – und das ist der Punkt, an dem die Probleme oft beginnen. Da ESG-Daten die unterschiedlichsten Formate aufweisen, ist die Integration und Weiterverarbeitung kompliziert und langwierig. Snowflakes Data Cloud kann helfen, diese Herausforderung zu überwinden und bietet eine dauerhafte Lösung für den nahtlosen Zugriff auf alle intern und extern gewonnenen ESG-Daten. Da sie als Single Source of Truth dient, ist es dank der Data Cloud möglich, große Datenmengen besser zu verstehen und aktiv im Sinne der gesetzten ESG-Ziele zu handeln.

Was können Unternehmen noch tun, um ihre Daten im Sinne der Nachhaltigkeit einzusetzen?

Dass Daten selbst große Mengen an Emissionen produzieren, wird oft vergessen – dabei verursacht schon ein Terabyte, das in der Cloud gespeichert ist, rund 210 Kilogramm CO2 pro Jahr. Das Problem: Auch bei Private Cloud-Lösungen bleibt der Großteil der verfügbaren Ressourcen die meiste Zeit ungenutzt, wenn diese keine Skalierung zulässt. Um nachhaltiger zu handeln, macht es deshalb Sinn, eine Public Cloud und noch besser eine Multi-Tenant-Plattform zu wählen. Damit ist ein System gemeint, das gleichzeitig mehrere Nutzende beziehungsweise Unternehmen bedienen kann. Das hat den Vorteil, dass keine Ressourcen ungenutzt bleiben und jederzeit flexibel skaliert werden kann, wodurch die Umwelt deutlich geschont wird.

 

 

Dieser Beitrag ist freigegeben unter einer CC-BY-ND 3.0 DE Lizenz
https://creativecommons.org/licenses/by-nd/3.0/de/

Bitte beachten Sie, dass die Bilder und Motive dem Urherrecht unterliegen.

]]>
Unternehmen für Krisenzeiten gerüstet? https://trendreport.de/planung/ Fri, 14 Jul 2023 08:47:42 +0000 https://trendreport.de/?p=41781 .avia-image-container.av-ljpg1ytu-7bde7c54da841b7362546fa4ab4e273e img.avia_image{ box-shadow:none; } .avia-image-container.av-ljpg1ytu-7bde7c54da841b7362546fa4ab4e273e .av-image-caption-overlay-center{ color:#ffffff; }

Unternehmen für Krisenzeiten gerüstet?

Unternehmen in stürmischen Zeiten auf Kurs zu halten, ist für die Verantwortlichen keine einfache Aufgabe. Es erfordert viele richtungsweisende Entscheidungen. Um zu verstehen, wie Unternehmen auf die Herausforderungen reagieren, haben wir in einer Studie etwa 2500 Entscheidungsträger in Großbritannien, den USA, Deutschland, Frankreich, Italien, Japan, Australien und Singapur befragt.

 

Dabei zeigen sich regionale Unterschiede. Zwar sind sich die Unternehmen in allen Ländern einig, dass die Krisen nicht spurlos an ihnen vorübergehen. Doch während zum Beispiel in Deutschland 34 % der Unternehmen Störungen in der Lieferkette befürchten, sind dies in den USA nur 17 %. Hier spiegelt sich die starke Einbindung von Deutschland in den globalen Handel wider.

Gastautor Ansgar Eickeler von Board Deutschland betont:

„Intelligente Planung bringt Unternehmen besser durch die Krise“

Bedeutung intelligenter Planung erkennen

Für Board als Anbieter einer Planungslösung ist es interessant zu erfahren, wie Planung den Unternehmen hilft, widerstandsfähiger gegenüber Krisen zu werden. Für mehr als 80 % der Befragten ist tatsächlich eine kontinuierliche Planung sehr wichtig, um in Krisenzeiten erfolgreich reagieren zu können. Deshalb arbeiten auch die meisten Unternehmen daran, ihre Planung neu zu gestalten und sie schneller und flexibler zu machen. Hierbei nehmen die US-Unternehmen eine Führungsrolle ein. Während in den europäischen Ländern, inklusive Deutschland, noch ein starker Fokus auf der Jahresplanung liegt, sagen über 60 % der Befragten in den USA, dass sie ihre Planung ständig durch aktuelle Daten ergänzen.

Sie sind jederzeit in der Lage, On-Demand-Planungen durchzuführen und so schnell zu agieren. Moderne Planungslösungen helfen dabei, kontinuierliche Planung sehr viel einfacher umzusetzen.

Ergebnisse der globalen Planungsstudie von Board im Detail

Die weltweiten Krisen der letzten Jahre geben den Unternehmen Anlass zur Sorge und zwingen sie zum Handeln. Board hat 2.454 Branchenexperten in acht Ländern befragt, wie sie ihre aktuelle Situation einschätzen und welchen Beitrag die Planung zur Überwindung der Krisen leisten kann. Die Ergebnisse hat Board in einer Benchmark-Studie zusammengefasst.

Im Folgenden gehen wir auf einige der Fragen und Antworten etwas detaillierter ein und beleuchten auch die regionalen Unterschiede.

Ausgangspunkt ist die derzeitige Situation:

Inwieweit haben sich die jüngsten weltweit bedeutsamen Ereignisse wie COVID, der Krieg in der Ukraine oder die hohe Inflation negativ auf Ihr Unternehmen ausgewirkt?

  • Global – 36,3%
    • UK – 38,3%
    • Germany – 39,3%
    • France – 37,6%
    • Italy – 46%
    • Japan – 44,8%
    • Australia – 33,6%
    • Singapore – 27,9%

Die deutschen Unternehmen sind mit am stärksten durch die Krisen beeinträchtigt, übertroffen nur noch von Italien und Japan. Offen bleibt, welche der angegebenen Krisen den größten Einfluss auf die Wirtschaft hat.

Einer der Stellhebel, um Unternehmen durch die Krise zu führen, ist eine gute Planung. Deshalb haben wir gefragt:

Wie wichtig ist die Transformation der Planung angesichts der letzten Krisen in den Unternehmen?

  • Global – 85%
    • UK – 78%
    • USA – 92%
    • Germany – 81%
    • France – 80%
    • Italy – 87%
    • Japan – 81%
    • Australia – 85%
    • Singapore – 94%

Mehr als 8 von 10 Unternehmen haben erkannt, dass sie ihre Planungsprozesse verändern müssen, um weiterhin erfolgreich zu sein. Die Unternehmen in Singapur und USA arbeiten am stärksten daran, die Planung umzugestalten.

Die Transformation der  Planung ist also wichtig. Aber wie sieht die Planung in den verschiedenen Ländern aus?

Welche der Aussagen beschreibt am besten Ihren Planungsansatz?

Für die Antwort: „Wir haben unseren Fokus auf der Jahresplanung und ändern die nur, wenn das Management entsprechende Wünsche äußert“ stimmen die Unternehmen wie folgt:

  • Global – 48,2%
    • UK – 61,6%
    • USA – 32,9%
    • Germany – 51,6%
    • France – 50%
    • Italy – 57,3%
    • Japan – 49,1%
    • Australia – 46%
    • Singapore – 37,8%

Für die Antwort: „Unsere Jahresplanung wird ständig durch aktuelle Daten ergänzt, so dass wir jederzeit On-Demand-Planungen durchführen können“ stimmen die Unternehmen wie folgt:

  • Global – 44,9%
    • UK – 30,6%
    • USA – 63,5%
    • Germany – 40%
    • France – 39,3%
    • Italy – 36%
    • Japan – 28,2%
    • Australia – 50,2%
    • Singapore – 60,1%

Die Antworten zeigen, dass vor allem in Europa und Japan der Fokus auf einer reinen Jahresplanung nach wie vor sehr hoch ist. In den USA und Singapur werden die Jahrespläne hingegen mit ständig aktualisierten, abrufbaren Daten unterstützt. Das macht Planung und damit auch die Steuerung der Unternehmen sehr viel flexibler. Die Unternehmen können mit den raschen Veränderungen, die wir heute auf den Märkten erleben, leichter Schritt halten.

Wie geht es weiter in den Unternehmen? Wie sehen sie sich für die Zukunft gerüstet?

Glauben Sie, dass ihr Unternehmen für anhaltende Störungen der Supply Chain in der Planung gut aufgestellt ist?

  • Global – 29%
    • UK – 31%
    • USA – 17%
    • Germany – 34%
    • France – 29%
    • Italy – 27%
    • Japan – 28%
    • Australia – 33%
    • Singapore – 31%

Beim Thema Supply-Chain-Störungen sind es die Unternehmen in Deutschland, die die größten Bedenken haben. Hier spiegelt sich die starke Einbindung Deutschlands in den Welthandel und damit die große Abhängigkeit von internationalen Lieferketten wider.

Die Zahlen zeigen, dass die Unternehmen durchaus in Alarmbereitschaft sind, was die Herausforderungen durch zukünftige Krisen anbelangt. Wir haben auch gesehen, dass die Transformation der Planung für die Unternehmen wichtig ist, um resilienter zu werden.

Doch welche Faktoren behindern die erfolgreiche Transformation?

Welche Faktoren haben am meisten dazu beigetragen, dass Transformationsprojekte gescheitert sind?

„Die Projekte scheiterten aufgrund mangelnder technischer Fähigkeiten“ sagen:

  • Global – 26%
    • UK – 22%
    • USA – 27%
    • Germany – 17%
    • France – 21%
    • Italy – 21%
    • Japan – 31%
    • Australia – 30%
    • Singapore – 35%

Deutschland ist das Land der Ingenieure. An den technischen Fähigkeiten scheiterten im Vergleich zu den anderen Ländern die wenigsten Projekte. Möglicherweise funktioniert hier die Zusammenarbeit zwischen IT und Fachabteilungen besser? Generell sehen sich die Unternehmen in Europa hier besser aufgestellt als die Unternehmen in Asien, Australien und den USA.

„Die Projekte scheiterten aufgrund mangelnder Investitionen in die Qualifikation“ sagen:

  • Global – 23%
    • UK – 22%
    • USA – 27%
    • Germany – 17%
    • France – 21%
    • Italy – 18%
    • Japan – 27%
    • Australia – 24%
    • Singapore – 28%

Auch Weiterbildung scheint in den deutschen Unternehmen zu funktionieren. Deutlich weniger Unternehmen geben im internationalen Vergleich an, dass Projekte zur Transformation der Planung an der Weiterbildung scheitern. Ist lebenslanges Lernen in deutschen Unternehmen angekommen und verankert?

Dies war eine kleine Auswahl der Ergebnisse. Die Studie bietet weitere wertvolle Einblicke und Daten, die Unternehmen helfen, den aktuellen Stand der Planung in verschiedenen Branchen und Regionen zu verstehen. Sie analysiert die sich schnell entwickelnde Marktsituation, identifiziert wichtige Trends, und liefert Strategien, die jedes Unternehmen benötigt, um im Wettbewerb zu bestehen.

Sie können die Studie hier kostenlos herunterladen

]]>
Industrielle KI – Im Tal der Tränen? https://trendreport.de/industrielle-ki-im-tal-der-traenen/ Mon, 05 Jun 2023 13:00:49 +0000 https://trendreport.de/?p=41336 Autor: Dr.-techn. DI Andreas Schumacher

Autorenvorwort: Der Reiz Teile dieses Textes mit einem KI-Textgenerierungstool zu verfassen oder zumindest zu konzeptionieren, lag unbestreitbar auf der Hand, diesem Reiz wurde widerstanden. In naher Zukunft werden Texte dieser Art wohl die Minderheit darstellen.

Künstliche Intelligenz als (Industrielle) Revolution?

Bereits das Wort „künstliche Intelligenz“ (KI) löst aktuell, auch im industriellen Kontext, den Anschein einer Revolution aus, welche mit dem Ausruf der „Industrie 4.0“ bereits im Jahr 2011 erwartet wurde. Künstliche Intelligenz etwa definiert als „[…] the ability of a digital computer or computer-controlled robot to perform tasks commonly associated with intelligent beings” (vgl. Britannica) ist konzeptionell seit der ersten Revolution und Automatisierungswelle im 18. Jhdt. bekannt. Während jedoch vormalige technologische Revolutionen, wie jene der Automatisierung, die Ersetzbarkeit manueller und kognitiver Routinearbeiten aufzeigten, rüttelt die Künstliche Intelligenz nun erstmals an den noch verbleibenden Nicht-Routine-Arbeiten wie Kreativtätigkeiten, welche als unantastbar menschliche gelten. Sogar Charakteristiken wie Empathie oder Leidenschaft werden neuerdings bereits von Algorithmen ununterscheidbar abgebildet. So bewerteten Empfänger:innen von medizinischen Online-Ratschlägen die Konversationen mit einem KI-Tool als empathischer als jene mit menschlichen Mediziner:innen. Dies zeigt, dass philosophische und ethische Aspekte von KI intensiv zu diskutieren sind, etwa ob KI-generierte Inhalte als solche gekennzeichnet werden müssen. Die Chancen stehen jedenfalls gut, dass wir die Lawine an KI-Lösungen ex-post als Start einer industriellen Revolution bezeichnen werden, wie wir uns diese vom Ausruf der Industrie 4.0 erwartet hätten.

Ist die Industrielle KI im Tal der Tränen?

Der bekannte Gartner Hype Cycle prophezeit für jede Technologie eine Phase überzogener Erwartungen, bevor diese nach einer Bereinigung der Erwartungen (Tal der Tränen) die Phase der produktiven Anwendungen startet und Technologien Einzug in den Mainstream finden.

 

Im relativ wenig reglementierten Consumer-Bereich durchlaufen Technologien diesen Zyklus schneller als im Industriebereich, wobei digitale und vor allem datenfokussierte Technologien hier die kürzesten Durchlaufzeiten aufweisen. Im Bereich Künstlicher Intelligenz hat die Technologie der sog. „Large Language Models“, in Produktform intelligenter Chatbots auf frei zugänglichen Webseiten, zu einer rekordverdächtigen Technologieadaption im Consumer-Bereich geführt. So wurde die Technologieverbreitung des aktuell dominierenden KI-Chatbots ChatGPT (Chatbot Generative Pre-trained Transformer) zur Erfolgreichsten bis dato, mit 100 Mio. Nutzer:innen in den ersten 2 Monaten. Diese rasante Entwicklung der KI-Technologien im Consumer-Bereich führen zu einer effizienten Bereinigungsphase im Hype Cycle, und es werden Lösungen mit hohem gesellschaftlichem Beitrag, wie Medizin-KI-Chatbots für Personen ohne Zugang zu medizinischen Ressourcen, absehbar.

Im industriellen Umfeld ist vom Hype der aktuellen KI-Tools noch weniger zu vernehmen, und hier durchlaufen KI-Technologien den Hype Cycle mit dem gewohnten „Industrial Pace“, also der vergleichsweise langsameren industriellen Technologieadaption. Hierfür gibt es gute Gründe:

  • Anwendungsfokus: Aktuelle „Out-of-the-box“-KI-Tools fokussieren auf Inhalte, welche im Zusammenhang mit Text, Sprache, Bildern oder Videos stehen – also Inhalte des täglichen Lebens. Getrieben ist dieser Fokus vor allem durch die öffentlich zugänglichen Trainingsdaten, welche für die Entwicklung der Lösungen zur Verfügung stehen. Für spezielle industrielle KI-Tools, wie Planungs-KIs für Anlagenplanungen oder Projektmanagement-KIs zur Abwicklung komplexer Bauprojekte, stehen keine ausreichenden Trainingsdaten dieser Qualität zur Verfügung.
  • Anforderungstiefe: Industrielle KI-Anwendungen, etwa zu Verbesserung der Energieflusssteuerung in Fabriken, erfordern zum Training von KI-Lösungen individuelle Daten der zu optimierenden Energiekreisläufe. Daten dieser Detailtiefe einzelner industrieller Prozesse sind nicht öffentlich verfügbar, und so können KI-Tools, welche nur mit öffentlich zugänglichen Daten des Internets trainiert werden, hier keine Ergebnisse in ausreichender Qualität liefern.
  • Wissenstiefe: Aktuell betreiben gut ausgebildete Fachkräfte industrielle Anlagen und Prozesse. Hier wirkt ein komplexes Zusammenspiel aus Erfahrung, Intuition und Interaktion mit anderen. Dieses Zusammenspiel können aktuelle KI-Lösungen nicht ausreichend gut abbilden. So sind etwa langjährig tätige Instandhaltungsmitarbeiter:innen in der Lage, Ausfälle von Maschinen verblüffend genau abzuschätzen, ohne dafür stets eine rationale Erklärung zu haben. Hier ist aktuell noch ein unverhältnismäßig hoher Aufwand zur Entwicklung von KI-Lösungen erforderlich, um diese Wissenstiefe und letztendlich Effektivität abzubilden.
  • Sicherheitsanforderungen: Industrielle Anlagen stellen unweigerlich einen Gefahrenbereich für Menschen dar, in welchem alle Ursachen und deren Auswirkungen bestmöglich kontrolliert werden müssen. Unternehmen als auch Behörden sind noch nicht bereit, sicherheitsrelevante Entscheidungen an KI-Lösungen auszulagern, da deren Ursache-Wirkungsketten oft nicht validierbar und im Schadensfall rekonstruierbar sind.
  • Daten- und IP-Sicherheit: KI-Lösungen nutzen eingegebene Daten sowie erzeugte Ergebnisse, um das Kernmodell weiter zu trainieren und um zukünftige Ausgaben zu verbessern. Industrieunternehmen hantieren mit meist vertraglich geschützten Daten innerhalb des Unternehmens, auch entlang der umliegenden Wertschöpfungskette. Aktuell ist die rechtliche Abbildung dieser Datenströme schlicht noch zu wenig ausjudiziert und stellt damit für Industrieunternehmen ein nicht kontrollierbares Risiko dar.

Zusammenfassend lassen sich also KI-Technologien des Consumer-Bereiches nicht ohne Weiteres auf den industriellen Kontext umlegen, da Industrieunternehmen speziellere Tätigkeiten durchführen und strengere Anforderungen an Technologien setzen müssen.

Die Hypothese, dass sich KI im industriellen Kontext im Tal der Tränen befindet, kann jedoch aufgrund etwa eines simplen Vergleiches mit dem Consumer-Bereich nicht gestützt werden. So gibt es seit Jahrzehnten KI-Lösungen im Produktivbereich industrieller Unternehmen, welche die Anforderungen der Industrie erfüllen: etwa die Steuerung von fahrerlosen Transportsystemen in Logistikhallen über Schwarmintelligenz, die kamerabasierte Inspektion von Elektronikbauteilen über Visual Computing oder die Optimierung der Reihenfolgeplanung in Produktionsanlagen über Machine Learning. Im Unterschied zum Consumer-Bereich durchliefen diese Lösungen den Hype Cycle jedoch langsamer und kontrollierter, was im Vergleich zu aktuellen KI-Entwicklungen den Anschein einer Schockstarre oder sogar Verweigerung erwecken mag. Dies ist jedoch schlicht auf die erforderliche größere Risikoaversion industrieller Unternehmen zurückzuführen und stellt sicher, dass KI-Lösungen kaufmännisch, technisch und sicherheitstechnisch verträglich sind.

Industrielle KI – was kommt nun?

Selbst führende Vertreter:innen der KI-Szene sind sich einig, dass aktuelle Entwicklungen rund um Large Language Models keine wirkliche KI-Revolution aus technologischer Sicht darstellen. Die eigentliche Revolution findet in den Köpfen aller Menschen statt, da sich nun ein umfassender Diskurs über das Zusammenspiel zwischen Mensch und Maschine entwickelt, wie man diesen schon seit Jahrzehnten führen hätte sollen. Technologisch wird ein Schneeballeffekt erwartet, da die Vielzahl neuer Lösungen im Zusammenspiel mächtige KI-Lösungen ermöglicht, oder deren Funktionen zumindest die Entwicklungen neuartiger KI-Tools beschleunigt.
Es ist daher Industrieunternehmen geraten, sich aktiv mit KI-Tools zu beschäftigen und diese operativ im Unternehmen zu verankern. Denn genau in der täglichen Arbeit kommen die beiden Hype Cycles, jener des Consumer-Bereiches und jener des Industriebereiches, zusammen. Mitarbeiter:innen lernen aktuell viele neue KI-Tools im privaten Bereich kennen und nutzen diese aktiv, was eine große Chance auch für Industrieunternehmen bietet, diesen Schwung für die Arbeit im Unternehmen zu übernehmen. Ob aktiv im Unternehmen getrieben oder nur verfolgt – eine Vielzahl an Tätigkeiten wird, über ein Zusammenspiel aus Automatisierung und KI über die nächsten Jahre, von Maschinen teilweise ersetzt oder umfassend unterstützt. So werden KI-Copilot:innen und KI-Assistenzen in Office-Software-Tools bereits angekündigt, und spätestens dann werden sich alle Jobprofile verändern.

Eine maßgebliche Barriere zur aktiven Einführung von KI-Lösungen stellt die Angst vor Jobverlusten dar. Aber, legt man den zeitlichen Verlauf der Arbeitslosigkeit mit technologischen Veränderungen übereinander zeigt sich, dass die Arbeitslosigkeit des letzten Jahrhunderts in keiner negativen Korrelation mit technologischem Fortschritt steht. Mit Zukunftsaussagen zu Jobverlusten durch Automatisierung und KI sind bereits renommierte Universitäten und Forscher:innen gescheitert. Denn oftmals wird die Veränderungen von Jobprofilen mit dem Wegfall von Jobs gleichgesetzt. Da diese Entwicklungen jedoch gerade im industriellen Bereich verlangsamt Einzug halten, haben Mitarbeiter:innen Zeit, sich an das eigene veränderte Jobprofil anzupassen oder es sogar mitzuformen. Dass etwa Backoffice-Mitarbeiter:innen in wenigen Jahren keine langwierigen Terminkoordinationen mehr durchführen müssen, ist naheliegend. Dieser wegfallende Anteil des Jobprofiles kann zum Beispiel durch Tätigkeiten zur persönlicheren Betreuung neuer Mitarbeiter:innen beim Onboarding aufgefüllt werden – eine Veränderung des Jobprofiles mit hohem Mehrwert für das Unternehmen, ohne Jobverlust.

Als Industrieunternehmen sollte man seinen individuellen KI-Hype Cycle durchlaufen, um sinnvolle Lösungen zu identifizieren und einzuführen. Von einer pauschalen Verurteilung der KI-Technologien, aus welchen Gründen auch immer, sei dringend abgeraten, da die Gefahr besteht, die wirklich nützlichen Tools zu übersehen.

Über den Autor:

Andreas Schumacher arbeitet seit Januar 2022 bei VTU und ist in unserem Unternehmen der Experte für Digitalisierungsstrategien und deren Umsetzung.
Andreas Schumacher verfügt über mehr als 10 Jahre Erfahrung in den Bereichen Unternehmensberatung, Forschung und Innovation. Als CDO bei VTU entwickelt er eine Digitalisierungsstrategie auf Konzernebene und setzt digitale Lösungen auf allen Ebenen um. In der Digitalisierung der Wertschöpfung, das Feld in dem Schuhmacher auch promovierte, liegt seine Expertise und ist die Grundlage seiner Arbeit. Er publiziert seit mehreren Jahren wissenschaftlich im Bereich Industrie 4.0 und berät Unternehmen bei der Umsetzung von industriellen Digitalisierungsstrategien. Seine Arbeit bei VTU umfasst die Bereiche Internal Digital Work, Digital Project Execution und Customer Digitalization. Andreas treibt die Digitalisierung durch die Integration von Operational und Digital Excellence voran und konzentriert sich auf Competence Center Ansätze, um digitale Agenden nachhaltig in die VTU Organisation einzubetten.
Andreas Schumacher bringt die Digitalisierung aus einer menschenzentrierten Perspektive voran, in der Aspekte wie individuelle Arbeitsstile, unterschiedliche Kompetenzniveaus und die Integration in tägliche Routinen eine zentrale Rolle spielen.

Dr. Andreas Schumacher
Chief Digital Officer
VTU Group

Der Beitrag ist freigegeben unter CC BY-ND

https://creativecommons.org/licenses/by-nd/3.0/de/

]]>
Forschung und Innovationen sind die Triebfedern einer zukunftsfähigen IT https://trendreport.de/forschung-und-innovationen-sind-die-triebfedern-einer-zukunftsfaehigen-it/ Thu, 01 Jun 2023 15:39:33 +0000 https://trendreport.de/?p=41327 Von Dr. Angela Carell und Thomas Bendig

 

In kaum einer Branche spielen Forschung und Innovation eine so herausragende Rolle wie in der Informationstechnologie. Ob das Internet, das Smartphone oder Künstliche Intelligenz (KI) – allein diese Innovationen haben das Leben der Menschen auf vielfältige Weise verändert und erleichtert. Sie wären ohne ständige Forschung und Innovationen als Triebfedern für Fortschritt nicht möglich gewesen. Neue technologische Entwicklungen haben das Potenzial, eine rasante Dynamik zu entfalten und damit unsere Welt, in der wir leben, auf den Kopf zu stellen. So war es mit der Erfindung der Dampfmaschine, so ist es mit KI und ganz aktuell mit ChatGPT. Das hat einen enormen Einfluss auf viele Bereiche des täglichen Lebens, wie beispielsweise die Kommunikation, die Unterhaltung, die Bildung, die Geschäftswelt und die Gesundheitsversorgung. Doch erst wenn aus den Forschungsergebnissen Lösungen werden, die auf ein Interesse des Marktes oder der Gesellschaft stoßen, wird daraus eine Innovation. Forschung und Innovation sind deshalb eng miteinander verflochten, aber nicht identisch: Nicht aus jeder Forschung wird eine Innovation. Forschung und Innovation erfordern denn auch unterschiedliche Herangehensweisen, Mindsets und Methoden. Dabei hat sich die Arbeitsweise zweier Teams, die sich jeweils mit einer der beiden Perspektiven intensiv auseinandersetzen und gleichzeitig im ständigen Austausch miteinander stehen bewährt. Gemeinsam werden so neue Ansatzpunkte für Forschung und Innovation entwickelt.

Wie forscht ein IT-Dienstleister?

IT-Unternehmen haben nicht nur die Aufgabe, im Tagesgeschäft zu liefern, die Branche muss auch langfristig denken. Anwendungsorientierte Forschungsprojekte im engen Schulterschluss mit der Wissenschaft sind ein wirksames Mittel zur frühzeitigen Entwicklung neuer Technologien. Bei der Auswahl von Forschungsthemen stehen dabei einerseits die eigenen Kunden und ihr jeweiliges Geschäftsfeld im Fokus, andererseits aber auch die Impulse und neuen Entwicklungen, die die Wissenschaft beisteuert. Darum forscht adesso zum Beispiel zu Themen wie dezentrale Energienetze, eHealth und Datenökosysteme. Denn das sind die Themen, die bereits jetzt vor allem aber in Zukunft für die Kunden große Relevanz haben. Darüber hinaus lohnt es sich eine eigene isolierte FuE-Abteilung zu betreiben, oder Forschung in den jeweiligen operativen Einheiten umzusetzen – also nah am Markt. Berater- und Entwickler-Teams werden so zugleich Forschende. Durch diese enge Anbindung wird gewährleistet, dass Forschung den Bedarf der Praxis im Blick behält.

Innovationen sind Ideen, die erfolgreich sind

Im Innovationsbereich werden Zukunftsszenarien entwickelt, neue Trends und Technologien frühzeitig identifiziert und bewertet sowie deren Potenzial für neue Produkte, Dienstleistungen und Geschäftsmodelle ermittelt. In unserer schnelllebigen VUCA-Welt müssen dabei auch Unsicherheiten berücksichtigt werden. Um als Unternehmen in Zukunft nicht nur zu überleben, sondern auch wachsen zu können, reicht es dabei nicht aus, nur zu wissen, dass Unsicherheiten existieren. Sie müssen auch aktiv in die strategische Planung einbezogen werden. Innovation und Foresight leben vom proaktiven Umgang mit Unsicherheiten. So werden zum Beispiel beim Scenario Planning, besonders unsichere Faktoren mit starkem Einfluss auf den Unternehmenserfolg identifiziert und darauf basierend alternative Zukunftsszenarien entwickelt. Mit diesem Hintergrundwissen können dann auch neue Ideen fundiert bewertet werden, um zu entscheiden, welche davon weiterentwickelt und umgesetzt werden und welche zurückgestellt oder ganz verworfen werden.

Voraussetzung ist natürlich, dass man als IT-Dienstleister sein eigenes Handwerk beherrscht. Die souveräne Nutzung der Technologien in der Softwareentwicklung gehört ebenso dazu, wie die Herausforderungen auf Kundenseite vollends nachzuvollziehen. Ein tiefes Branchenverständnis ist ein wichtiger Erfolgsfaktor. Wer aus diesem Blickwinkel Innovationsthemen betrachtet, kann besser einschätzen, welchen konkreten Mehrwehrt sich der oder die Kunden davon erhoffen dürfen. Kann diese konkrete Idee oder neue Technologie der Kundschaft dabei helfen, wirtschaftlich erfolgreicher zu sein? Sorgt sie für bessere und effizientere Produkte oder Geschäftsmodelle? Wenn diese Fragen mit „ja“ beantwortet werden, macht es Sinn sich mit dem jeweiligen Thema zu beschäftigen. Auf dieser Basis kann man vorausschauend analysieren und sieht, welche Veränderungen auf die Unternehmen zukommen – wie man sie zum Vorteil nutzen kann und welche Kompetenzen dafür notwendig sein werden. So hat man im besten Fall die richtigen Antworten parat, bevor Kunden überhaupt die Fragen stellen. Das alles funktioniert natürlich nur in einem Umfeld, das neue Ideen fördert und unterstützt. Dafür sind Freiräume, Freizeiten und eine Fehlerkultur notwendig, die auch aus verworfenen oder gescheiterten Ideen etwas Positives zieht.

Partnerschaftliche Zusammenarbeit gehört zum Geschäft

Austausch, Kollaborationen und das Zusammenbringen vielfältiger Perspektiven sind wesentliche Bestandteile von Forschung und Innovationen. Große mehrjährige Forschungsprojekte sind deshalb immer als Konsortium angelegt. Hier wird interdisziplinär mit unterschiedlichen Partnern an einem gemeinsamen Ziel gearbeitet. Das Ziel: Aktuelle wissenschaftliche Erkenntnisse konkret zu erproben, Herausforderungen zu identifizieren und praxistaugliche Lösungen dafür zu entwickeln. So baut man fundiertes Wissen über neue Technologien auf, wie zum Beispiel aktuell in Bereichen wie Künstliche Intelligenz, Maschinelles Lernen oder etwa der Blockchain-Technologie und Quantencomputing. Dabei legt adesso zum Beispiel großen Wert auf einen Dreiklang: Die Projekte müssen die eigene Unternehmensstrategie unterstützen, sie müssen für die Kunden nützlich sein und auch eine gesamtgesellschaftliche Relevanz besitzen. Dennoch: IT-Dienstleister sind zunächst Unternehmen und keine wissenschaftlichen Institute, hier wird praxisorientiert geforscht, um das eigene Unternehmen und auch nicht zuletzt die eigenen Kunden fit für die Zukunft zu machen.

 

Scheitern ist erlaubt

Ohne den Mut, visionär zu denken, gibt es keine Forschung, die uns wirklich voranbringt. Deshalb wird auch nicht aus jedem einzelnen Forschungsprojekt eine marktgängige Lösung. Wenn das so wäre, hat man wohl zu klein gedacht. Forschung braucht einen langen Atem, braucht Kontinuität bis man die Früchte ernten kann.

Häufig geht es dabei um Themen, die noch weit weg vom eigentlichen Kundengeschäft sind. Spannend ist der Zeitpunkt, an dem klar wird, dass ein Thema, eine Technologie vor dem Durchbruch steht, aber noch unklar ist, wie schnell genau das passiert. Dann muss man entscheiden, in welchen Strängen ein Innovationsprozess behandelt wird: Im Rahmen großer Forschungsprojekte, im Rahmen interner Innovationsprojekte oder auch zusammen mit Kunden als Proof of Concept oder Pilot-Projekt um gemeinsam ein neues Thema strategisch aufzubauen. Manchmal entwickelt ein Thema eine so große Dynamik, dass verschiedene Stränge parallel angegangen werden. In den meisten Fällen ist es aber eine Pipeline, die die Themen durchlaufen. Im Forschungskontext steht bei adesso das Thema Datenökosysteme aktuell im Vordergrund. Bei Innovationen fokussieren wir uns auf IT-Themen, die für uns als Softwareunternehmen relevant werden könnten, beispielsweise Software-Entwicklungsmethoden und Werkzeuge auf der Basis von KI oder No-Code- und Low-Code-Ansätzen. Wir prüfen gemeinsam mit unseren Expertinnen und Experten, welche Auswirkungen sie auf unsere Arbeit haben und wie wir sie mit maximalem Nutzen für uns und unsere Kunden einsetzen können.

Besonders hervorzuheben ist, dass die Beschäftigung mit Forschung und Innovation nicht nur unmittelbaren wirtschaftlichen Nutzen hat. Es hilft auch, Mitarbeiter zu motivieren und eine Unternehmenskultur zu leben, die auf Offenheit und Neugierde setzt, im Neuen Chancen sieht und bereit ist, ein Wagnis einzugehen – neue Möglichkeiten zu sehen, neue Wege zu gehen.

 

Kurzbiografien:

Dr. Angela Carell leitet nicht nur seit mehr als zehn Jahren bei adesso den Forschungsbereich, sie brennt für die Forschung und ist zutiefst davon überzeugt, dass Forschung im Unternehmen wichtig ist. Zusammen mit ihrem Team entwickelt Angela Carell Zukunftsthemen in Anwendungsbereichen der IT. Mit zahlreichen Forschungskonsortien werden so wichtige Erkenntnisse für neue IT-Lösungen gesammelt, um anschließend diese auch direkt bei adesso zu verwerten.

 

Thomas Bendig ist CIO von adesso und zuständig für Strategic Foresight, Trendscouting, Technologiefrüherkennung und Innovationsmanagement. Wichtig ist für Thomas Bendig, neue gesellschaftliche, wirtschaftliche und digitale Trends und Technologien frühzeitig zu erkennen, zu bewerten und zu nutzen, um sowohl das eigene Unternehmen als auch Kunden vorausschauend auf Veränderungen und Innovationen vorzubereiten. Mit den Ergebnissen werden bei adesso die Weichen so gestellt, dass man auch zukünftig in der Lage ist, seinen Kunden innovative Softwarelösungen anzubieten.

Aufmacher by Canva Studio

]]>
ChatGPT und die folgen https://trendreport.de/chatgpt-und-die-folgen/ Thu, 27 Apr 2023 11:00:25 +0000 https://trendreport.de/?p=41139 ChatGPT – ein Computermodell der Firma Open AI, das mithilfe Künstlicher Intelligenz auf die Verarbeitung sprachlicher Daten trainiert wurde – hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Auftrag des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung hat das vom Karlsruher Institut für Technologie (KIT) betriebene Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) nun eine umfassende Einschätzung dieses technologischen Durchbruchs in der digitalen Sprachverarbeitung vorgelegt.

„Es ist sinnvoll, jetzt eine breite Debatte darüber zu führen, wie wir mit KI-Systemen umgehen wollen“, betont Dr. Steffen Albrecht vom Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT, das auch das TAB betreibt. Albrecht ist Autor der jetzt veröffentlichten Studie ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen. „Die Gesellschaft“, so Albrecht, „muss sich klarmachen, auf was sie sich da einlässt und welche Regeln wir vereinbaren wollen. Das System birgt ebenso zahlreiche Chancen wie Risiken. Unsere Studie liefert ein Nebeneinander von Pro und Contra, das lässt sich im Moment noch nicht vermeiden. Für eine klare Bewertung ist es derzeit noch zu früh.“

 

Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier des TAB die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen. Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Soziologe Albrecht auf zwei technologische Durchbrüche zurück: „Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greift das ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.

 

Für Chatbots derartiger Potenz ergeben sich laut Steffen Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise. Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren. „Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie, wo erforderlich, zugleich als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.“ Positive Effekte könnten sich Albrecht zufolge auch für die Inklusion behinderter Menschen ergeben: „Noch immer sind erst wenige Texte in leichte Sprache übersetzt, hier könnte künftig ChatGPT einen Beitrag leisten.“

 

Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT auch deren Grenzen und Risiken einbeziehen. „Der Output von Computermodellen kann nur so gut sein wie das, was sie an Input erhalten haben. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, kann sich in den Antworten des Systems widerspiegeln und Diskriminierung verstärken“, sagt Albrecht. Zudem sind die vom System erzeugten Informationen häufig schlicht falsch: „Aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen lässt sich die Korrektheit jedoch nur schwer überprüfen, wodurch das Vertrauen in die Verlässlichkeit von Informationen im Allgemeinen sinken kann. Eine verantwortliche Anwendung von ChatGPT sollte sich auf solche Gebiete beschränken, in denen die Nutzenden die Qualität der Ergebnisse beurteilen können beziehungsweise die faktische Richtigkeit weniger bedeutsam ist“, resümiert der Karlsruher Forscher. Daneben diskutiert die Studie konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.

Einen Schwerpunkt legt die Technikfolgen-Studie des TAB auf die Bereiche Bildung und Forschung.

Den Hoffnungen von Lehrkräften auf Entlastung von Routineaufgaben und auf eine Erweiterung didaktischer Möglichkeiten stehen dem Papier zufolge Befürchtungen eines Verlusts von Bildungskompetenzen, missbräuchlicher Verwendungen in Prüfungen sowie Datenschutzbedenken gegenüber. „Ich kann mir gut vorstellen“, so Steffen Albrecht, „dass Schulkinder und Studierende künftig nicht mehr nur einen fertigen Text abgeben, sondern dass sie sich schon viel früher mit ihren Lehrkräften darüber auch austauschen. Etwa über die Entwicklung einer Fragestellung, über die Suche nach Quellen oder den Aufbau einer Argumentation. Gerade im Umgang mit Quellen kann ein KI-System wie ChatGPT nur sehr bedingt helfen.“

In der Wissenschaft könnten Programme wie ChatGPT die Zahl der Betrugsfälle steigen lassen: „Schon heute herrscht ein hoher Druck, möglichst viel zu publizieren. Es ist also leicht vorstellbar, dass sich Forschende dazu verleiten lassen, ein KI-System ihre Studien schreiben zu lassen. Gleichzeitig deutet sich aber an, dass das System beim wissenschaftlichen Schreiben auch hilfreich sein könnte, zum Beispiel wenn es darum geht, die relevante Literatur zusammenzufassen oder in einer anderen als der Muttersprache zu publizieren“, stellt Albrecht fest.

Die Anwendungspotenziale und möglichen gesellschaftlichen Auswirkungen von Computermodellen wie ChatGPT sind auch Gegenstand einer öffentlichen Sitzung des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages am heutigen 26. April 2023, bei der unter anderem Sachverständige befragt werden.

 

Weitere Informationen zur Studie bietet ein ausführliches Interview mit Steffen Albrecht auf https://www.helmholtz.de/newsroom/artikel/was-chatgpt-fuer-bildung-und-wissenschaft-bedeutet/

Foto von DeepMind auf Unsplash

]]>