Business Intelligence – Trend Report https://trendreport.de Redaktion und Zeitung für moderne Wirtschaft Tue, 27 Jun 2023 15:38:09 +0000 de-DE hourly 1 https://wordpress.org/?v=6.3.2 ERP-Softwarevergleich und ERP-Trends 2023 https://trendreport.de/erp-softwarevergleich-und-erp-trends-2023/ Tue, 27 Jun 2023 15:38:09 +0000 https://trendreport.de/?p=41642

SoftSelect ERP-Software Studie 2023: KI auf dem Weg ins ERP-Verse

Die Entwicklung KI-basierter Anwendungen und die Integration in die Business Software Anwendungslandschaft ist in den vergangenen Jahren deutlich vorangeschritten. Während Anbieter allerorten die Entwicklungen rund um die Integration von KI-Tools massiv vorantreiben, dürfen Unternehmen schon bald auf viele neue Feature-Upgrades und KI-Integrationen hoffen, die ihnen nützliche Werkzeuge u.a. zur Optimierung der Datenanalytik, Cloud-Migration, der gesamten Customer Journey und zur Verbesserung der Kostenstrukturen bereitstellen. Welche ERP-Trends den Markt noch in Bewegung bringen und worauf Unternehmen bei der Auswahl einer passenden ERP-Software achten sollten, fasst das Hamburger IT-Marktforschungs- und Beratungshaus SoftSelect GmbH in seiner ab sofort verfügbaren Studie ERP-Software 2023, in der 202 ERP-Lösungen von insgesamt 170 Anbietern beleuchtet werden, zusammen.

Hamburg, den 27.06.2023 – Die Popularität von ChatGPT, dem von OpenAI entwickelten KI-Chatbot, ist auf die Fähigkeit des Sprachmodells GPT zurückzuführen, menschenähnliche Antworten auf Basis von Hunderten von Milliarden Parametern (GPT-4: 540 Mrd.) zu erzeugen, die oft nicht von denen eines Menschen zu unterscheiden sind. So kommt das „Multimodal Large Language Model“ von GPT-4 heute bereits vermehrt zur Unterstützung in der Programmierung und Code-Entwicklung, im Marketing oder im Kundendienst zur Lösung von Kundenanfragen und -Problemen zur Anwendung. Darüber hinaus bietet die Integration von ChatGPT in Geschäftsanwendungen und ERP-Systeme, für die ChatGPT seit März 2023 eine offizielle API bereitstellt, eine Vielzahl von Vorteilen. So ist etwa eine der wichtigsten Ergänzungen von ChatGPT die Fähigkeit, natürliche Sprache zu verstehen und zu verarbeiten. Dies ermöglicht es ERP-Systemen, mit Benutzern künftig auf eine viel intuitivere Weise zu interagieren und komplexe Anfragen in natürlicher Sprache zu verstehen, anstatt auf Befehle oder Abkürzungen beschränkt zu sein.

KI erobert ERP-Geschäftsanwendungen
Mögliche Use-Cases für die Anwendung von ChatGPT in ERP-Lösungen gibt es zuhauf. In der Produktionsplanung und -steuerung kann es etwa dazu beitragen, die Planung von Produktionsaufträgen zu optimieren, indem es historische Daten analysiert, Produktionsengpässe identifiziert und optimale Zeitpläne vorschlägt, um Lieferverzögerungen zu minimieren. Im Bereich des Qualitätsmanagements kann der Chatbot dazu beitragen, Qualitätsdaten aus verschiedenen Quellen zu analysieren und Muster zu erkennen, um Qualitätsprobleme frühzeitig zu identifizieren und Maßnahmen zur Verbesserung einzuleiten. Im Vertrieb und Kundenservice kann ChatGPT als virtueller Assistent eingesetzt werden, um häufige Kundenanfragen in Echtzeit zu beantworten, Bestellungen entgegenzunehmen und Kundenanliegen zu bearbeiten, was zu besseren Response-Zeiten und zu einer höheren Effizienz bei Serviceprozessen führt. Durch die Integration von KI-Modellen wie ChatGPT in Cloud-Datenwelten können Unternehmen zudem von den umfangreichen Daten-Ressourcen in der Cloud profitieren (Big Data) und gleichzeitig die Fähigkeiten der KI nutzen, um Daten in natürlicher Sprache abzufragen, Analysen durchzuführen und wertvolle Echtzeiteinblicke in komplexe Geschäftsszenarien zu gewinnen. Dies würde es Unternehmen ermöglichen, datengetriebene Entscheidungen auf eine viel effizientere und intuitivere Weise zu treffen, als bisher.

Die Integration von KI-Modellen wie ChatGPT kann dabei auf unterschiedliche Weise erfolgen. Eine Möglichkeit besteht darin, ChatGPT als virtuellen Assistenten oder Chatbot in die Benutzeroberfläche des ERP-Systems zu integrieren. Auf diese Weise können Benutzer auf natürliche Weise mit dem System interagieren, Anfragen stellen, Daten abfragen oder Aktionen ausführen. Alternativ lässt sich ChatGPT auch in das Backend-System integrieren, um Prozesse wie Datenanalyse, Prognosen oder Entscheidungsfindung zu automatisieren oder zu optimieren. Die Integration von ChatGPT in ERP-Systeme erfordert jedoch eine umfassende Planung und Implementierung. Dabei ist es wichtig, nicht nur die Anforderungen und spezifische Architektur des ERP-Systems zu berücksichtigen, sondern auch die Integration so zu gestalten, dass sie nahtlos in die vorhandene Softwarelandschaft eingebettet werden kann.

Herausforderungen der GPT-Integration
Doch bei all den Mehrwerten und Vorteilen, die die Nutzung und Integration von ChatGPT in Businessanwendungen bietet, sollten auch die Grenzen und Risiken, die mit der Integration insbesondere in betriebswirtschaftliche Kernanwendungen wie ERP-Systeme einhergehen, beleuchtet werden. So unterliegt ChatGPT etwa sprachlichen Einschränkungen, da es nur in den Sprachen arbeiten kann, für die es explizit trainiert wurde.  Datenschutz und Datensicherheit werfen auch wichtige Fragestellungen auf, da ChatGPT mitunter auf sensible Unternehmensdaten zugreifen kann und diese mitverarbeitet. Eine sorgfältige Überwachung des Zugriffs auf Daten und die Gewährleistung von Datenschutzrichtlinien sind somit unerlässlich, um potenzielle Risiken zu minimieren und Datenschutzverletzungen zu vermeiden. Da eine menschliche Validierung bisweilen fehlt, können sich zudem Fehler einschleichen, die bei einer Integration in die betriebswirtschaftliche Prozesskette unvorhersehbare Folgen mit sich bringen kann. Die Konfiguration des KI-Modells für die Verwendung in Geschäftsanwendungen, die vielfach nicht auf KI und maschinelles Lernen ausgelegt sind, kann zudem komplex werden und erfordert entsprechende Expertise von KI- und Data-Scientists, die bei einer branchenspezifischen Nutzung auch das Training mit branchenspezifischen Erkenntnissen erforderlich machen.

Blick in die Zukunft: Geführte Workflows in ERP-Systemen
Laut dem Branchenverband Bitkom e.V. greifen mittlerweile rund drei Drittel aller Anwender auch über das Notebook auf ERP-Systeme zu, rund die Hälfte über das Smartphone und ein gutes Viertel auch über das Tablet. Mobil auf benötigte Informationen wie Angebote, Preise, Bestellungen, Aufträge, Bestände oder Liefertermine zuzugreifen, ist für die Prozessqualität von hoher Bedeutung. Gegenüber den Desktop PCs erfordert der Einsatz auf Mobilgeräten jedoch sehr einfache und intuitive Bedienroutinen. Daher wird heute verstärkt an der Weiterentwicklung vollständig mobiler Geschäftsanwendungen und innovativer Bedienkonzepte gearbeitet, die den heutigen Anforderungen an virtuelle Arbeitsplätze besser gerecht werden. Insbesondere den Komplexitätsgrad zu reduzieren und überladene Informationsmenüs durch intuitive, geführte und responsive Prozesse zu ersetzen, ist eine Herausforderung, der sich viele ERP-Anbieter heute stellen müssen.

Dennoch dürften geführte und kontextsensitive Prozesse in ERP-Anwendungen in den kommenden Jahren allenfalls in gekapselten Anwendungsbereichen und bei in sich geschlossenen Prozesse realistisch sein. Die Aufspaltung der hochintegrierten ERP-Anwendung in mehrere native, rollen- und bereichsbezogene Apps ist bislang nur in Teilbereichen vollzogen bzw. steht bei den meisten Anbietern gar noch auf der Roadmap.

Integration von OnPrem- und Cloud-Welten
Auch der Einsatz von Hybrid-Plattformen gewinnt für immer mehr deutsche Unternehmen an Bedeutung. Die Kombination von Cloud- und On-Premise-Welten ermöglicht es Unternehmen, vorhandene Datensilos zu überbrücken und systemübergreifende Data Lakes zu schaffen. Die Integration von Cloud- und On-Premise-Lösungen erfordert jedoch einen langwierigen Transformationsprozess, der neben der technischen Verzahnung auch die Verwaltung, Datensicherheit und IT-Governance umfasst.

Die meisten ERP-Lösungen, die von SoftSelect untersucht wurden, können bereits im Cloud-/SaaS-Modell bereitgestellt werden (71%). Das Angebot im Cloud-Segment wächst insbesondere auf Anbieterseite. ERP-Anbietern kommt die Schlüsselaufgabe zu, standardisierte Schnittstellen für Daten- und Service-Plattformen aus der Cloud bereitzustellen, da die industrielle Produktion immer stärker mit digitalen Prozessen und Services verschmilzt. Durch die Verknüpfung von verschiedenen Datenquellen mit kaufmännischen und Stamm-Daten aus dem ERP-System verbessern Unternehmen nicht nur die Datenqualität im Informationsnetzwerk, sondern schaffen auch ein Fundament für die Steuerung und Automatisierung von Workflows über den ERP-Kern hinaus. Flexible Workflow-Engines der ERP-Systeme ermöglichen Unternehmen zudem, die Ablauforganisation flexibler an neue Rahmenbedingungen anzupassen, beispielsweise durch die Verwendung von Mikroservice-Architekturen.

Aufmacherbild/Quelle/Lizenz

Bild von Gerd Altmann auf Pixabay

]]>
Investieren in Datenkompetenz https://trendreport.de/investieren-in-datenkompetenz-2/ Sat, 02 Jan 2021 14:22:00 +0000 https://www.trendreport.de/?p=29702 Daten werden immer mehr zur universellen Sprache – und Unternehmen, die sie beherrschen, werden erfolgreich sein.

von Bernhard Haselbauer

Der Job eines Data Scientists ist es, aus großen Datenmengen Informationen zu generieren und Handlungsempfehlungen abzuleiten, die das Unternehmen befähigen, effizienter zu arbeiten.

Doch was muss ein Data Scientist können und welche Skills sollte er mitbringen? Zum Beispiel muss er mit den unterschiedlichsten Datenbanksystemen zurechtkommen, doch meistens liegen die Daten nur unstrukturiert vor. Unternehmen arbeiten heute mit CRM-und ERP-Lösungen von Microsoft, SAP, Oracle und Co. Standardmäßig kommen in diesen Fällen relationale Datenbanken zum Einsatz. Demnach sollte ein Data Scientist SQL, „Structured Query Language“, in allen Abwandlungen beherrschen. Werden dann die Daten für die Analyse exportiert, fangen die ersten Schwierigkeiten schon an. Zusätzlich müssen immer mehr unstrukturierte Daten aus Social-Media-Kanälen und anderen Internetquellen analysiert werden.

Diverse Schnittstellen müssen in diesem Kontext bedient werden, um neue Erkenntnisse zu gewinnen. Und so geht es weiter mit Know-how über Verschlüsselungsverfahren, Datenbankanbindungen und das Echtzeitmanagement von Datenströmen. Data-Scientisten sind gefragter denn je, um die digitale Transformation im Unternehmen voranzutreiben. Doch…

 

Lesen Sie weiter! Dieser Beitrag stammt aus dem „Handbuch digitaler Mittelstand“.

 

]]>
Wie schlau ist Ihr Unternehmen? https://trendreport.de/wie-schlau-ist-ihr-unternehmen-2/ Tue, 14 Jan 2020 18:15:01 +0000 https://www.trendreport.de/?p=24251

Reportage: Erst die konsequente Nutzung aller im Unternehmen verfügbaren Daten, schafft die Basis für eine wirkungsvolle Digitalisierung und Automatisierung.

Immer mehr Unternehmen wollen von der intelligenten und automatisierten Datenanalyse und -verarbeitung profitieren. Damit zielen sie mitunter auf mehr Umsatz, weniger Personaleinsatz, bessere Entscheidungsfindung oder einen höheren Automatisierungsgrad ab. Die Bereiche, in denen Machine-Learning-Technologien dabei Einsatz finden, werden immer breiter und die Anzahl der Proof of Concepts und Projekte nimmt in Deutschland rasant zu. Kundenerwartungen fordern eine strategische Neuausrichtung und prozessoptimierende Maßnahmen durch Automatisierung.

Die TREND-REPORT-Redaktion zeigt in Form von Gastbeiträgen und Interviews auf, wie es Unternehmen gelingt, Projekte im Bereich Data Science und Machine Learning erfolgreich umzusetzen.

Themen und Inhalte:

Digitale Assistenten
Machine Learning für Spracherkennung, Datenanalyse, Muster- und Verhaltenserkennung

Self Service
Schlaue Algorithmen zur Optimierung von Geschäftsprozessen

Datamanagement /Daten-Silos aufbrechen!
Smarte Tools für Datenbeschaffung, -verarbeitung und -verteilung

AIoT / Data Analytics & IoT
Viele Daten für die Analyse

Data Analytics as a Service
Cloud-Lösungen

Business Intelligence
Von Daten zu nutzbarem Wissen

Predictive Analytics
Predictive Finance
Predictive Analytics in Marketing und Vertrieb




Zielgruppe und Kommunikationsziel:

Zielgruppe:

Leser und Abonnenten des Handelsblattes, Konzernvorstände, Führungskräfte und Entscheider großer und mittelständischer Unternehmen, HR-Abteilungen, Beschaffung, Produktion, Vertrieb, IT, Logistik, CIO, CDO, COO, Geschäftsführer mit einem Haushaltsnettoeinkommen von über 4.000,00 € im Monat.

Kommunikationsziel:

Die TREND-REPORT-Redaktion erörtert aktuelle Trends und Entwicklungen aus dem Bereich Data Science. Gemeinsam mit Experten erörtert sie strategische Erfolgsfaktoren für die Umsetzung von Machine-Learning-Projekten und präsentiert hierfür zeitgemäße, innovative Tools und IT-Technologien.

Ihre Präsenz in der Reportage

Wir gestalten Ihre Einbindung in unserer Ausgabe sorgfältig und mit einer guten Schreibe. Dafür wählen wir mit Ihnen das passende Stilmittel für Ihr Kommunikationsziel:

• Gastbeitrag

• Fallbeispiel

• Success Story

• Interview



TREND-REPORT März 2020

Titelthema: Digitale Transformation

Die Reportage „Wie schlau ist Ihr Unternehmen?“ ist Teil unserer Ausgabe „Digitale Transformation“, die im März 2020 dem HANDELSBLATT beiliegt.

Hier geht es zu allen Themen…



Zahlen und Fakten:

Ausgabe: TREND REPORT

Trägermedium: HANDELSBLATT

Gesamtauflage: 126.000 inkl. E-Paper

RS: 04. März 2020

ET: 31. März 2020

Ihr Ansprechpartnerin

Martina Bartlett-Mattis

E-Mail: m.bartlett-mattis@trendreport.de

Tel. +49 228 5344 3991

]]>
Digital Decision Making https://trendreport.de/digital-decision-making/ Mon, 23 Dec 2019 11:09:00 +0000 https://www.trendreport.de/?p=23685 .avia-image-container.av-133h8cl-521c85cdeb916b7d98e5a0ee69815352 img.avia_image{ box-shadow:none; } .avia-image-container.av-133h8cl-521c85cdeb916b7d98e5a0ee69815352 .av-image-caption-overlay-center{ color:#ffffff; }

KI zur Steuerung operativer Prozesse

von Adrian Weiler

Künstliche Intelligenz (KI) ist kein Experiment, sondern zu Recht die Technologie der Zukunft. Schließlich machen sich über nahezu alle Branchen hinweg auffallend ähnliche Herausforderungen und Veränderungen der Marktstrukturen bemerkbar, für deren Bewältigung KI einen entscheidenden Beitrag leistet. Im Wesentlichen sind dies:

  1. die weitreichende Vernetzung und Interdependenz in der Geschäftswelt,
  2. die Individualisierung von Produkten und Dienstleistungen,
  3. die zunehmende Beschleunigung (kürzere Produkt- und Entwicklungszyklen sowie Lieferzeiten),
  4. eine größer werdende Anfälligkeit gegenüber selbst kleinen, alltäglichen Betriebsstörungen, bedingt durch die ersten drei genannten Entwicklungen.

Diesen Herausforderungen ist gemein, dass sie Menschen in operativen Entscheidungspositionen vor manuell unlösbare Aufgaben stellen. Zeitdruck und Komplexität treffen so geballt aufeinander, dass in der Regel nicht mehr als Bauchgefühl und Erfahrung bleibt, um eine kniffelige Entscheidung zu treffen. Zugegeben, beide Eigenschaften behalten auch in Zukunft ihren Wert, reichen für die betriebswirtschaftlich sinnvolle Planung aber oft nicht mehr aus. Es gibt zahlreiche Aufgaben, die sich ohne algorithmische Unterstützung nicht mehr zeitgemäß lösen lassen. Dazu zählt zum Beispiel die Disposition von Zehntausenden Artikeln eines Warenlagers – jeden Tag termingerecht, optimiert für die geplante Produktion, ohne zu viel Sicherheitsbestände anzulegen und unter Berücksichtigung vieler weiterer Rahmenbedingungen. Noch eindrücklicher: Wer könnte schon Millionen Finanztransaktionen täglich manuell auf Betrugsmuster überprüfen und je nachdem entsprechende Maßnahmen einleiten? …

Den kompletten Beitrag finden Sie im Open-Content-Buchprojekt „Handbuch Künstliche Intelligenz“ veröffentlicht.
Lesen Sie hier mehr…

]]>
Aus einem Guss https://trendreport.de/aus-einem-guss/ Wed, 24 Apr 2019 06:45:18 +0000 http://trendreport.de/?p=19641 

]]>
Datenschatz selbst heben https://trendreport.de/datenschatz-selbst-heben/ https://trendreport.de/datenschatz-selbst-heben/#comments Mon, 25 Mar 2019 09:15:50 +0000 http://trendreport.de/?p=18765

In vielen Unternehmen schlummert ein verborgener Schatz – Kunden­daten. Die Entscheider wissen das und sehen enormen Nachholbedarf, wie aus einer aktuellen Marktstudie des Softwarehauses Uniserv unter 140 Entscheidern in mittleren und großen Firmen im deutschsprachigen Raum hervorgeht. Demnach plagen die Unternehmen unvollständige, veraltete oder auch doppelt und mehrfach vorhandene Daten. In einer ganzen Reihe von Firmen finden sich zudem Datensilos. Fazit: Fast die Hälfte der Unternehmen stuft die Qualität ihrer Kundendaten als niedrig ein.

Aus unserer Sicht kommen zwei weitere Herausforderungen hinzu. Zum einen hat der Mangel an IT-Fachkräften laut Digitalverband Bitkom einen neuen Höchststand erreicht. 82 000 offene Stellen gibt es derzeit in Deutschland. Zum anderen scheitern große IT-Projekte immer wieder, weil die Belegschaft nicht einbezogen, son­dern vor vollendete Tatsachen gestellt wird und sich deshalb gegen die neue Software sträubt.

Dann hebt den Datenschatz doch selber, haben wir uns gedacht und gemeinsam überlegt: Wie müsste eine IT-Lösung aussehen, die nicht nur leistungsfähig und zugleich leicht handhabbar ist, sondern die die Mitarbeiter in Eigenleistung Schritt für Schritt an ihre Bedürfnisse anpassen und weiterentwickeln können – und zwar, ohne dass sie programmieren müssen? Wie wäre es, haben wir uns schließlich gefragt, wenn wir die Vorzüge herkömmlicher IT-Lösungen miteinander verbinden?

Programmierkenntnisse nicht erforderlich: Mithilfe von Formularen können die Mitarbeiter in Unternehmen beliebig komplexe Prozesse ab­bilden.

Wir sind sicher, dass wir die Antwort gefunden haben mit der Technologie G2: Sie ist flexibel wie die generische Lösung Excel. Doch die Daten liegen wohlgeordnet auf einem professionellen Datenbankserver – analog einer Branchenlösung. Bei G2 sind die Geschäftsregeln jedoch nicht in der Software selbst verankert, sondern ähnlich wie bei Excel mit Anweisungen und Funktionen in Formularen hinterlegt. Auf diese Weise lassen sich beliebig komplexe Prozesse abbilden – von der Verwaltung von Störungsmeldungen bis hin zur Steuerung ganzer Beschaffungsprozesse, von der Ausschreibung bis zur Inbetriebnahme.

Alle Mitarbeiter im Unternehmen können zeitgleich unabhängig voneinander mit G2 arbeiten. Programmierkenntnisse benötigen sie nicht. Trotzdem können sie die Software selber schrittweise aufbauen, an aktuelle Erfordernisse anpassen, Firmendaten aus allen möglichen Quellen integrieren, analysieren und bewerten – wann und wie immer sie wollen.

Wir wissen: Sich selbst helfen zu können, bedeutet Unternehmen sehr viel. Das hat der „BI Trend Monitor 2018“ ergeben, den das Business Application Research Center (BARC) vorgelegt hat. Die nahezu 3 000 Teilnehmer der weltweit größten Befragung zu Business-Intelligence-Trends hatten das Thema „Self-Service“ auf den dritten Platz der 20 wichtigsten Trends gesetzt. Den schlummernden Schatz selber zu heben, macht flexibel und unabhängig. Das sagt ein IT-Fachmann.

Gastbeitrag von Dr.-Ing. Gerd Staudinger, Geschäftsführer Stella Systemhaus GmbH

CC BY-ND 4.0 DE

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.

]]>
https://trendreport.de/datenschatz-selbst-heben/feed/ 2
Transformation der Analytik https://trendreport.de/transformation-der-analytik/ Mon, 25 Mar 2019 06:17:49 +0000 http://trendreport.de/?p=18928

Im Technology Spotlight von IDC werden heutige Anforderungen an eine umfassende Decision-Support-Lösung untersucht.

Ergebnis: „Traditionelle“ Business-Intelligence(BI) Software greift zu kurz. Funktionen zur Entscheidungshilfe werden benötigt, die nicht nur Informationen liefern, sondern es
Analysten und Entscheidungsträgern auch ermöglichen, die bestmögliche Entscheidungsalternative zu bewerten.

Hier geht es zum IDC Technology Spotlight

Aufmacherbild / Quelle / Lizenz
Bild von StockSnap auf Pixabay

CCO

]]>
Decision-Support https://trendreport.de/decision-support/ Mon, 25 Mar 2019 06:15:46 +0000 http://trendreport.de/?p=18904

Unternehmen müssen sich zu datengetriebenen Organisationen entwickeln.

Um im Wettbewerb bestehen zu können, sind sie auf eine schnelle, datenzentrierte, automatisierte und vorausschauende Planung und Steuerung angewiesen.

Die Studie von BARC gibt Empfehlungen, um eine für individuelle Anforderungen passende Lösung zu finden und auszuwählen.

Hier geht es zur Studie

Aufmacherbild/ Quelle / Lizenz

Bild von rawpixel auf Pixabay

]]>
Oberwasser in der Datenflut https://trendreport.de/oberwasser-in-der-datenflut/ Thu, 21 Mar 2019 09:00:47 +0000 http://trendreport.de/?p=18786

Neue Technologien bieten große Chancen bei der Nutzung von Informationen

Data Science, Business Intelligence, Big Data: Mit der Verarbeitung großer Informationsmengen ergeben sich für Unternehmen in vielen Fällen enorme Herausforderungen. Beispielsweise steht die benötigte Rechenleistung nicht zur Verfügung oder komplexe Fragestellungen versinken schlichtweg in der Datenflut.

Bei Data Science geht es darum, Erkenntnisse aus bestehenden Daten zu extrahieren und aufzubereiten. Oftmals steht die Wissenschaft dabei in direktem Zusammenhang mit Begriffen wie Big Data oder Business Intelligence. Gewonnene Informationen sollen direkt ins Unternehmen fließen und bei strategischen Entscheidungen unterstützen. Ehemals rohe Daten bilden für die Betriebe somit ein wertvolles Gut.

In Zeiten von Big Data kommt der Bewältigung und Handhabung von Informationen eine immer größere Rolle zu. So basieren heutzutage ganze Wirtschaftszweige darauf, Antworten und Lösungen zu entwickeln, statt einfach nur Produkte herzustellen.

Hierbei stets innovationsfähig zu bleiben und Ideen umzusetzen, stellt eine der zentralen Herausforderungen unserer Zeit dar. Daten sind der Rohstoff der Zukunft, wobei die Menge an zu verarbeitenden Informationen stetig weiter wächst. Hier entsprechende Tools zu haben, um der riesigen Quantität Herr zu werden, bietet künftig einen entscheidenden wirtschaftlichen und gesellschaftlichen Vorteil sowohl auf unternehmerischer als auch auf staatlicher Ebene.

Vielversprechendes Projekt

Bislang ließen sich Daten nur unzureichend analysieren, aufbereiten und auswerten. Dank modernster Entwicklungen auf dem Gebiet der künstlichen Intelligenz (KI) bieten neue Technologien nun die Möglichkeit, Informationen strukturiert zu verarbeiten und auf dieser Grundlage aussagefähig aufzubereiten. Prisma Analytics, ein Projekt der Patentpool Group, zählt zu ebendiesen Technologien: Mit dem Datenauswertungssystem „Decision Point“ lässt sich das Dilemma der unzureichend aufbereiteten Daten aus Big-Data-Pools auflösen, indem es strukturiert, in mehrdimensionalen Ebenen, konkrete sowie komplexe Fragestellungen beantwortet und damit fundierte Entscheidungskriterien gibt. Das Analysetool ist damit in der Lage, kommende ökonomische, politische und soziale Phänomene vorherzusagen.

Durch selbstlernende Algorithmen und die Auswertung von Echtzeitinformationen stehen ganz konkrete Handlungsempfehlungen zur Bewältigung von heute noch unbekannten Problemen zur Verfügung. Zur Gewährleistung eines ständigen Zugriffs auf fortwährend aktualisierte Informationen besteht eine Kooperation mit dem Medienunternehmen Thomson Reuters, dessen Eikon-Plattform zu den größten Datenbanken der Welt zählt. Für die globale Krisenprävention und geopolitische Entscheidungen bedeuten Entwicklungen wie „Decision Point“ und seine Eigenschaften einen Quantensprung von unschätzbarem Wert.

Revolution der Data Science

Mit neuen Technologien entwickelt sich Data Science weiter: Das komplexe Feld der Datenwissenschaftler beschäftigt sich mit der systematischen Auswertung von Informationen, um das gewonnene Wissen für ganz unterschiedliche Zwecke abzuleiten. Dabei kommen verschiedene praktische Methoden sowie theoretische Ansätze divergenter Wissenschaften wie Mathematik oder Informationstechnologie zum Einsatz. Anschließend gilt es die Ergebnisse aufzubereiten, zu präsentieren und beratend – anderen Abteilungen, ohne tiefere Fachkenntnisse auf dem Gebiet der Datenanalyse, beispielsweise dem Management – weiterzugeben.

„Decision Point“ arbeitet wie ein Data Scientist, das Tool stellt Hypothesen auf und leitet Kriterien zur Entscheidung ab. Mit der C+8-Technologie werden Daten im- und exportiert, außerdem können sie sich durch einen Zerstäubungsprozess und die systemische Verknüpfung von Events vollständig selbst organisieren. So lassen sich tausende zentrale Anwendungen betreiben – von hochleistungsfähigen Analysesystemen über Unternehmensdienstleistungen bis hin zu Online-Verbrauchersoftware. Das System erfasst hochkomplexe, sich weiterentwickelnde Wissenselemente, sogenannte C+8-Datenobjekte, mit ihrer vollständigen Historie. Jedes integrierte Objekt wird analysiert, verknüpft, portiert und in einer intelligent wachsenden Datenbank abgelegt. Mit der Speicherung erfolgt auch die ständige Aktualisierung aller Informationen.

Außerdem gelangen sämtliche Eigenschaften und Verhältnisse ins Gesamtsystem, wodurch Verbindungen zwischen neuen sowie bestehenden Objekten entstehen. Diese Kausalität erzeugt ein großes Netz aus Wissen, das sich kontinuierlich weiterentwickelt. „Decision Point“ macht die gesammelten Informationen für die Nutzer zugänglich, so entfernt die Technologie die Barrieren der unstrukturierten Datenflut und bietet die Chance für enorme Fortschritte in Wirtschaft und Politik.

Technologie der Zukunft

Klassische Big-Data-Analysen haben mittlerweile ausgedient – gepaart mit KI und dem Zugang zu einer der größten strukturierten Datenbanken der Welt, ist das Tool von Prisma Analytics in der Lage, Data Science grundlegend zu revolutionieren. Analysen für komplexe Entscheidungen, etwa im Bereich Risikomanagement oder Krisenprävention, speisen sich aus Informationen rund um die Felder Geopolitik und Makroökonomie, soziale Trends und Konflikte, globale Sicherheit und Risiken, weltweite Gesetzesänderungen und disruptive Technologien.

Die gesammelten Ergebnisse werden validiert und aufbereitet. Auf diese Weise lassen sich wertvolle Daten für komplexe Entscheidungen generieren und interpretieren. Mit dem Technologieprojekt Prisma Analytics verfügt die Patentpool Group über eine Unternehmung, die es in Zeiten von Big Data versteht, auf Basis von künstlicher Intelligenz Antworten auf aktuellste Fragen der Gegenwart und der Zukunft zu finden.

Internationale Anerkennung für die Entwicklung von „Decision Point“ erfuhr das Projekt im Oktober 2018 durch die Auszeichnung mit dem FinX Award „Global Fintech Start Up of the Year“. Dieser Preis wird an Unternehmen vergeben, die sich um die Implementierung fortschrittlicher Konzepte in der Finanzbranche verdient gemacht haben.

Unser Autor

Dr. Heiner Pollert

Dr. Heiner Pollert ist CEO der Prisma Analytics GmbH. 1998 gründete er die Patentpool Group, deren Geschäftsmodell darin besteht, patentfähige, innovative Technologien, wie das Datenauswertungssystem „Decision Point“ von Prisma Analytics, zu managen und zu vermarkten. Mithilfe von Kapital, Know-how und einem breiten Netzwerk transformiert die Patentpool Group Innovationen in marktfähige Konzepte. Hierbei agiert das Unternehmen als Schnittstelle, um Projekte in der Wertschöpfungskette zu optimieren. Pollert wirkt seit 2007 als Landeswirtschaftssenator und seit 2013 als Mitglied im Beratungsausschuss „Initiative Mittelstand“ im BVMW Bayern. Außerdem ist der studierte Jurist seit 2010 Vorstandsvorsitzender des Deutschen Instituts für Erfindungswesen e. V. In den letzten Jahren erhielten zahlreiche innovative Technologien, die Pollert mit der Patentpool Group entwickelte, Auszeichnungen wie beispielsweise den „ISPO Award“, den „Best Specialist Data Provider“ des Technical Analyst Awards oder die Anerkennung als „Global FinTech Start Up of the Year“.

PORTRAIT

Weitere Informationen unter

www.patentpool.de
und
www.prisma-analytics.de

Aufmacherbild / Quelle / Lizenz

https://pixabay.com/de/

]]>
Datenbasierte Geschäftsmodellinnovationen https://trendreport.de/datenbasierte-geschaeftsmodellinnovationen-2/ Fri, 28 Dec 2018 14:34:20 +0000 http://trendreport.de/?p=17550

Datenbasierte Geschäftsmodellinnovationen

Das IoT wird zum KI-Datenlieferanten: Durch die Algorithmen des maschinellen Lernens entstehen so neue Produkte, Prozesse und Services.

Im Interview mit der TREND-REPORT-Redaktion sprach Prof. Dr. Dr. Schildhauer, Principal Investigator am Weizenbaum-Institut für die vernetzte Gesellschaft, über das Veränderungspotenzial der mit dem IoT einhergehenden Datenmenge (Big Data).

Herr Prof. Schildhauer, inwieweit verändert die KI/AI (Künstliche Intelligenz/Artificial Intelligence) datenbasierte Geschäftsmodelle?
Es entstehen durch weiterentwickelte Algorithmen Chancen, bspw. durch maschinelles Lernen, Systeme zu entwickeln, die basierend auf großen Datenkontingenten helfen, Prozesse, Strukturen und Arbeitsabläufe in Unternehmen zu optimieren und zu steuern. Mit dem Hype-Begriff „Künstliche Intelligenz“ gehe ich in diesem Kontext noch sehr vorsichtig um. Aber sichtbar ist, dass neben maschinellem Lernen weitere Technologien wie Cloud Computing, IoT oder Additive Manufacturing ein wichtiger technischer Enabler für datenbasierte Geschäftsmodelle sind. So entwickeln sich in Deutschland in diesem Zusammenhang neue technologiebasierte Start-ups z. B. in den Sektoren Handel, Logistik, Gesundheit oder Mobilität.

Prof. Dr. Schildhauer beschreibt die notwendigen Veränderungen von Geschäftsmodellen in Bezug auf die Datengebundenheit.

Start-ups, aber auch etablierte Unternehmen entwickeln auf Basis großer Datensammlungen und entsprechender Algorithmen neue Geschäftsmodelle, die beispielsweise Vorhersagen auf künftige Bedarfe oder Nutzerverhalten analysieren und vorhersagen – Predictive Analytics. Insbesondere vollzieht sich der Wandel bei etablierten Unternehmen dort, wo zumeist auf der Ebene unternehmensinterner Prozessoptimierungen Potenziale aus der Analyse großer Datenmengen geschöpft werden. Dies kann im Versicherungsbereich (bspw. Vorhersage über Schadenrisiken aus Daten der Vergangenheit und aktuellen Wetter- und Verhaltensdaten) ebenso wie in Produktionsunternehmen (Predictive Maintenance) zur Anwendung kommen. Ob und wie sich aus diesen Innovationen tragfähige datenbasierte Geschäftsmodelle entwickeln, untersucht die Forschungsgruppe „Datenbasierte Geschäftsmodellinnovation“ am Weizenbaum-Institut für die vernetzte Gesellschaft – Das deutsche Internet-Institut.

Welche Innovationen werden mit diesen neuen Technologien möglich?
Das Innovationspotenzial erstreckt sich über die gesamte Wertschöpfungskette in Unternehmen und führt zu neuen Prozessen, Produkten, Services und Geschäftsmodellen in vielen unterschiedlichen Sektoren. Neben den bereits beschriebenen Beispielen aus Dienstleistungs- und Produktionsbranchen wird die Echtzeitanalyse riesiger Datenbestände mittels Big-Data-Analytics heute auch in der Krebsdiagnostik genauso eingesetzt wie in der personalisierten Werbung. Große Potenziale entstehen auch im Bildungsbereich, diesen untersucht die Forschungsgruppe schwerpunktmäßig.

Der Einsatz von Augmented Reality führt z. B. in der Berufsbildung dazu, dass Auszubildende verstärkt praktische Fähigkeiten durch virtuelle Simulationen erlernen, was vor allem bei riskanten und teuren Arbeitsschritten ein wichtiges Innovationspozential darstellt. Neue digitale Bildungsplattformen verändern den Lehr- und Lernprozess und machen diesen erstmalig messbar. So hat z. B. eine führende Plattform für Online-Kurse im Aus- und Weiterbildungsbereich mittels maschinellen Lernens einen Algorithmus entwickelt, der Teamleiter*innen aufzeigt, welche Kompetenzen Mitarbeiter*innen fehlen und mit welchen offerierten Online-Kursen diese erworben werden können. Auch kann die Sammlung von Verlaufs-, Abbruch- und Abschlussdaten der Lernenden auf Lernplattformen dazu genutzt werden, die Lernsysteme in Echtzeit an das Verhalten der Lernenden anzupassen (Learning Analytics).

Dieser Text stammt aus dem Open-Content-Buchprojekt „Handbuch Internet of Things“. Lesen Sie hier weiter…

CC BY-SA 4.0 DE

Sie dürfen:
  • Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten
  • Bearbeiten — das Material remixen, verändern und darauf aufbauen und zwar für beliebige Zwecke, sogar kommerziell.
  • Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
  • Bitte berücksichtigen Sie, dass die im Beitrag enthaltenen Bild- und Mediendateien zusätzliche Urheberrechte enthalten.
Unter den folgenden Bedingungen:
  • Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen, einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
  • Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.

]]>