Geschriebene Artikel über Big Data Analytics

Multi-touch attribution: A data-driven approach

This is the first article of article series Getting started with the top eCommerce use cases.

What is Multi-touch attribution?

Customers shopping behavior has changed drastically when it comes to online shopping, as nowadays, customer likes to do a thorough market research about a product before making a purchase. This makes it really hard for marketers to correctly determine the contribution for each marketing channel to which a customer was exposed to. The path a customer takes from his first search to the purchase is known as a Customer Journey and this path consists of multiple marketing channels or touchpoints. Therefore, it is highly important to distribute the budget between these channels to maximize return. This problem is known as multi-touch attribution problem and the right attribution model helps to steer the marketing budget efficiently. Multi-touch attribution problem is well known among marketers. You might be thinking that if this is a well known problem then there must be an algorithm out there to deal with this. Well, there are some traditional models  but every model has its own limitation which will be discussed in the next section.

Traditional attribution models

Most of the eCommerce companies have a performance marketing department to make sure that the marketing budget is spent in an agile way. There are multiple heuristics attribution models pre-existing in google analytics however there are several issues with each one of them. These models are:

First touch attribution model

100% credit is given to the first channel as it is considered that the first marketing channel was responsible for the purchase.

Figure 1: First touch attribution model

Last touch attribution model

100% credit is given to the last channel as it is considered that the first marketing channel was responsible for the purchase.

Figure 2: Last touch attribution model

Linear-touch attribution model

In this attribution model, equal credit is given to all the marketing channels present in customer journey as it is considered that each channel is equally responsible for the purchase.

Figure 3: Linear attribution model

U-shaped or Bath tub attribution model

This is most common in eCommerce companies, this model assigns 40% to first and last touch and 20% is equally distributed among the rest.

Figure 4: Bathtub or U-shape attribution model

Data driven attribution models

Traditional attribution models follows somewhat a naive approach to assign credit to one or all the marketing channels involved. As it is not so easy for all the companies to take one of these models and implement it. There are a lot of challenges that comes with multi-touch attribution problem like customer journey duration, overestimation of branded channels, vouchers and cross-platform issue, etc.

Switching from traditional models to data-driven models gives us more flexibility and more insights as the major part here is defining some rules to prepare the data that fits your business. These rules can be defined by performing an ad hoc analysis of customer journeys. In the next section, I will discuss about Markov chain concept as an attribution model.

Markov chains

Markov chains concepts revolves around probability. For attribution problem, every customer journey can be seen as a chain(set of marketing channels) which will compute a markov graph as illustrated in figure 5. Every channel here is represented as a vertex and the edges represent the probability of hopping from one channel to another. There will be an another detailed article, explaining the concept behind different data-driven attribution models and how to apply them.

Figure 5: Markov chain example

Challenges during the Implementation

Transitioning from a traditional attribution models to a data-driven one, may sound exciting but the implementation is rather challenging as there are several issues which can not be resolved just by changing the type of model. Before its implementation, the marketers should perform a customer journey analysis to gain some insights about their customers and try to find out/perform:

  1. Length of customer journey.
  2. On an average how many branded and non branded channels (distinct and non-distinct) in a typical customer journey?
  3. Identify most upper funnel and lower funnel channels.
  4. Voucher analysis: within branded and non-branded channels.

When you are done with the analysis and able to answer all of the above questions, the next step would be to define some rules in order to handle the user data according to your business needs. Some of the issues during the implementation are discussed below along with their solution.

Customer journey duration

Assuming that you are a retailer, let’s try to understand this issue with an example. In May 2016, your company started a Fb advertising campaign for a particular product category which “attracted” a lot of customers including Chris. He saw your Fb ad while working in the office and clicked on it, which took him to your website. As soon as he registered on your website, his boss called him (probably because he was on Fb while working), he closed everything and went for the meeting. After coming back, he started working and completely forgot about your ad or products. After a few days, he received an email with some offers of your products which also he ignored until he saw an ad again on TV in Jan 2019 (after 3 years). At this moment, he started doing his research about your products and finally bought one of your products from some Instagram campaign. It took Chris almost 3 years to make his first purchase.

Figure 6: Chris journey

Now, take a minute and think, if you analyse the entire journey of customers like Chris, you would realize that you are still assigning some of the credit to the touchpoints that happened 3 years ago. This can be solved by using an attribution window. Figure 6 illustrates that 83% of the customers are making a purchase within 30 days which means the attribution window here could be 30 days. In simple words, it is safe to remove the touchpoints that happens after 30 days of purchase. This parameter can also be changed to 45 days or 60 days, depending on the use case.

Figure 7: Length of customer journey

Removal of direct marketing channel

A well known issue that every marketing analyst is aware of is, customers who are already aware of the brand usually comes to the website directly. This leads to overestimation of direct channel and branded channels start getting more credit. In this case, you can set a threshold (say 7 days) and remove these branded channels from customer journey.

Figure 8: Removal of branded channels

Cross platform problem

If some of your customers are using different devices to explore your products and you are not able to track them then it will make retargeting really difficult. In a perfect world these customers belong to same journey and if these can’t be combined then, except one, other paths would be considered as “non-converting path”. For attribution problem device could be thought of as a touchpoint to include in the path but to be able to track these customers across all devices would still be challenging. A brief introduction to deterministic and probabilistic ways of cross device tracking can be found here.

Figure 9: Cross platform clash

How to account for Vouchers?

To better account for vouchers, it can be added as a ‘dummy’ touchpoint of the type of voucher (CRM,Social media, Affiliate or Pricing etc.) used. In our case, we tried to add these vouchers as first touchpoint and also as a last touchpoint but no significant difference was found. Also, if the marketing channel of which the voucher was used was already in the path, the dummy touchpoint was not added.

Figure 10: Addition of Voucher as a touchpoint

Let me know in comments if you would like to add something or if you have a different perspective about this use case.

Top influential AI skills to target in 2020

Artificial intelligence in 2020: a trustable year!

The AI market is deemed to reach USD70 billion in the present year, thus causing a drastic effect on the government market, consumer, enterprise globally. 

With market uproars, it is certain obstacles are bound to intercept. However, the effects of artificial intelligence are poised to have huge potential in democratizing expensive services, or boost poor customer service, or assist during medical breakthroughs, and even lightened the work of the overburdened workforce. 

If you’re a tech optimist who believes in creating a world where man and machine can come closer and work together with humans, then you better need to possess mandatory AI skills. 

Based on this report, “2020 Workplace Learning Trends Report: The Skills of the Future,” you will come across how AI is reshaping the world and what are the skills that are a must-know for upcoming AI professionals. 

The report also states that the investment funds that are managed by AI are accounted for 35% of the stock market in America.

Finance machines will rise says a recent article in ‘The Economist.’ 

Trending by the industry’s insights and job trends, these are the skills AI professionals need to master in 2020:

  • Machine learning 

People often use the terms artificial intelligence and machine learning interchangeably, both being entirely different from each other. There’s a lot of confusion between both these terms, however, let us briefly understand what exactly is machine learning. 

Machine learning uses algorithms that obtain knowledge and skill through experience and without human intervention. It relies on big data sets that remind the data to find common patterns. 

For instance, if you provide machine learning programs with a lot of data on skin conditions and tell them what these conditions signify, these algorithms can easily mine the images (data) and help in analyzing the skin conditions even in the future. 

Now the algorithms will compare the images with the previous image data and try to identify the pattern that exists between them that have similar kind of patterns. 

However, if the algorithm is given a new image of a skin condition and the condition is unknown in the future as well. The algorithm will take the image to analyze it with the past and the present situation, thus the prediction of the condition will remain improper since one needs to feed new data for the algorithm to learn in order to predict what the condition is. However, AI will only learn by obtaining knowledge and learn how to apply these knowledges. Artificial intelligence helps to train computers aiming at a result that could provide a better outcome than a human can do. 

 

  • Python 

As the phrase is used, ‘orange is the new black’ so are AI and ML becoming the new black of the IT industry. With the extensive expansion of volumes of data, machine learning and artificial intelligence are used progressively for processing as well as analysis. To be honest, a human brain can function and analyze huge amounts of data but a human brain is restricted by limitations and can only contain a certain amount of processing or analyzing. 

AI in that aspect has a huge capacity and requires no limitation. 

Now Python plays a major impact on AI and machine learning as we undergo an upsurge for AI engineers. 

According to the latest trend search on Indeed, Python is said to be the most popular language for AI and ML, as stated by Jean Francois Puget, from the machine learning department in IBM. 

 

The how’s and why’s?

  • Python offers a low entry barrier for data scientists to effectively use Python without wasting much effort in learning the language. 
  • It has a great choice of library ecosystem, no wonder why everybody loves Python. For instance, Pandas for producing high-level data structure or data analysis, Matplotlib to create 2D plots and histograms, or Keras that is widely used for deep learning. 
  • Python as a language is flexible and is a great choice for machine learning. AI professionals can easily use Python along with other programming languages to achieve their target. 
  • Python offers easy readability for every developer, thus making it easy to understand the codes of their senior, change or develop a new one whenever needed. 

React (web)

If you’re a web developer thriving to enter the AI world, here’s a great chance for you. You can now build sweet AI apps using React.js. These offers web developers a new platform to bridge the gap between web developers and professionals who are getting trained in AI skills. 

A web developer can now easily build apps leveraging artificial intelligence that can learn from experiences or learns to react to the user’s inputs like facial expression, etc. 

Angular

If one isn’t aware, Google AI is build using Angular. Building a chatbot from scratch using a Dialog flow conversation platform, previously known as API.ai can be challenging. NLP (natural language processing) could be tough to deal with in machine learning. 

Docker 

Docker is now used in every field of the software industry. Confused with the term? Well, Docker is nothing but a DevOps tool. 

Docker can also be called as an exploiter tool exploiting operating-system-level virtualization that basically helps in developing and delivering software in packages that are called containers. 

Though this may sound complicated, you need to simply know that Docker is a complete environment that offers you a platform to build as well as deploy software. 

In a nutshell, one may say that Docker can be employed for varied phases of the machine learning development cycle like data aggregation, data-gathering, model training, predictive analysis, and application deployment, etc. 

Tech professionals such as DevOps engineers and AI engineers will need to supercharge their skill set in 2020. Till the time this knowledge gap persists, we will continue to see talent shortage in the job market.

 

Stop processing the same mistakes! Four steps to business & IT alignment

Digitization. Agility. Tech-driven. Just three strategy buzzwords that promise IT transformation and business alignment, but often fade out into merely superficial change. In fact, aligning business and IT still vexes many organizations because company leaders often forget that transformation is not a move from A to B, or even from A to Z––it’s a move from a fixed starting point, to a state of continual change.


Read this article in German:

Mit den richtigen Prozessen zum Erfolg: vier Schritte zum Business-IT Alignment

 


Within this state of perpetual flux, adaptive technology is necessary, not only to keep up with industry developments but also with the expansion of technology-enabled customer experiences. After all, alignment assumes that business and technology are separate entities, when in fact they are inextricably linked!

Metrics that matter: From information technology to business technology

Information technology is continuing to challenge the way companies organize their business processes, communicate with customers and potential customers, and deliver services. Although there is no single dominant reorganization strategy, common company structures lean towards decentralizing IT, shifting it closer to end-users and melding the knowledge-base with business strategy. Business-IT alignment is more than ever vital for market impact and growth.

This tactic means as business goals pivot, IT can more readily respond with permanent solutions to support and maintain enterprise momentum. In turn, technological advances and improvements are hardwired into current and future strategies and initiatives. As working ecosystems replace strict organizational structures, the traditional question “Which department do you work in?” has been replaced by, “How do you work?”

But how does IT prove its value and win the trust of the C-suite? Well, according to Gartner, almost 20% of companies have already invested in tools capable of monitoring business-relevant metrics, with this number predicted to reach 60% by 2021. The problem is many infrastructure and operations (I&O) leaders don’t know where to begin when initiating an IT monitoring strategy.

Reach beyond the everyday: Four challenges to alignment

With this, CIOs are under mounting pressure to address digital needs that grow and transform, as well as to renovate the operational environment with new functions. They also must still demonstrate how IT is meeting a given business strategy. So looking forward, no matter how big or small your business is, technology can deliver tangible and intangible benefits (like speed and performance) to hit revenue and operational targets efficiently, and meet your customers’ expectations of innovation.

Put simply, having a good technological infrastructure enriches the culture, efficiency, and relationships of your business.

Business and IT alignment: The rate of change

This continuous strategic loop means enterprises function better, make more profit, and see better ROI because they achieve their goals with less effort. And while there may be no standard way to align successfully, an organization where IT and business strategy are in lock-step can further improve agility and operational efficiencies. This battle of the ‘effs’, efficiency vs. effectiveness, has never been so critical to business survival.

In fact, successful companies are those that dive deeper; such is the importance of this synergy. Amazon and Apple are prime examples—technology and technological innovation is embedded and aligned within their operational structure. In several cases, they created the integral technology and business strategies themselves!

Convergence and Integration

These types of aligned companies have also increased the efficiency of technology investments and significantly reduced the financial and operational risks associated with business and technical change.

However, if this rate of change and business agility is as fast as we continually say, we need to be talking about convergence and integration, not just alignment. In other words, let’s do the research and learn, but empower next-level thinking so we can focus on the co-creation of “true value” and respond quickly to customers and users.

Granular strategies

Without this granular strategy, companies may spend too much on technology without ever solving the business challenges they face, simply due to differing departmental objectives, cultures, and incentives. Simply put, business-IT alignment integrates technology with the strategy, mission, and goals of an organization. For example:

  • Faster time-to-market
  • Increased profitability
  • Better customer experience
  • Improved collaboration
  • Greater industry and IT agility
  • Strategic technological transformation

Hot topic

View webinar recording Empowering Collaboration Between Business and IT, with Fabio Gammerino, Signavio Pre-Sales Consultant.

The power of process: Four steps to better business-IT alignment

While it may seem intuitive, many organizations struggle to achieve the elusive goal of business-IT alignment. This is not only because alignment is a cumbersome and lengthy process, but because the overall process is made up of many smaller sub-processes. Each of these sub-processes lacks a definitive start and endpoint. Instead, each one comprises some “learn and do” cycles that incrementally advance the overall goal.

These cycles aren’t simple fixes, and this explains why issues still exist in the modern digital world. But by establishing a common language, building internal business relationships, ensuring transparency, and developing precise corporate plans of action, the bridge between the two stabilizes.

Four steps to best position your business-IT alignment strategy:

  1. Plan: Translate business objectives into measurable IT services, so resources are effectively allocated to maximize turnover and ROI – This step requires ongoing communication between business and IT leaders.
  2. Model: IT designs infrastructure to increase business value and optimize operations – IT must understand business needs and ensure that they are implementing systems critical to business services.
  3. Manage: Service is delivered based on company objectives and expectations – IT must act as a single point-of-service request, and prioritize those requests based on pre-defined priorities.
  4. Measure: Improvement of cross-organization visibility and service level commitments – While metrics are essential, it is crucial that IT ensures a business context to what they are measuring, and keeps a clear relationship between the measured parameter and business goals.

Signavio Says

Temporarily rotating IT employees within business operations is a top strategy in reaching business-IT alignment because it circulates company knowledge. This cross-pollination encourages better relationships between the IT department and other silos and broadens skill-sets, especially for entry-level employees. Better knowledge depth gives the organization more flexibility with well-rounded employees who can fill various roles as demand arises.

Get in touch

Discover how Signavio can lead your business to IT transformation and operational excellence with the  Signavio Business Transformation Suite. Try it for yourself by registering now for a free 30-day trial.

How Data Analytics In The Cloud Transforms Your Business

Businesses have started to turn to cloud-based technology to solve their growing data problems. But before we dive deep into the reason behind it, let’s look at some reasons why data analytics is such a powerful tool. It all falls back to businesses like Netflix, Amazon, Google, and Facebook. All of these businesses are using data analytics to understand their customers and are making an absolute fortune. They also have so much data coming in that they needed to mitigate it somehow, so they turned to the cloud.

Let’s use Netflix as an example here. They have over 115 million subscribers and have become the absolute king of the online streaming industry. Their rise to the top was no fluke. They developed state-of-the-art methods of data analytics and then gathered the information needed to provide the right entertainment to the right people.

Amazon uses data to learn about its customers. They analyze all behavior on their website and then target customers based on that data.

Cloud-based technologies are designed to reduce costs associated with older data analytical methods. Businesses like Netflix, Amazon, Google, and Facebook have all started underpinning the cloud because they know it’s the future. They based their entire business models around it.

But smaller businesses still have a long way to go. Only 40% of businesses are using data as the core piece of their business strategy.

Now let’s look at some ways that data analytics has transformed business.

It Gave Birth to Strategic Analytics

Strategic analytics is the backbone of your entire data plan. It is a detailed analysis of the entire system that is used to determine how you are funneling customers into your system. It will reveal weak points and show you the strengths so that you can develop data-driven strategies moving forward. It also helps you understand the behavior of your market.

Strategic analytics follows a three-step process:

  1. Identify your business model’s strengths and weaknesses in comparison with your competition.
  2. Diagnose all of your business processes to determine areas that might need to be improved.
  3. Analyze individuals within the company to make sure you are properly using them. You would be surprised at the number of businesses wasting their employees’ talents on inefficient tasks.

At the end of it all, your business should be able to determine areas of your marketing where you can pull out more value, as well as data that you need to start gathering.

Fuel your Decisions with Platform Analytics

The goal here is to combine data analytics with your decision-making processes so that your business operates more efficiently at its very core. If money is the lifeblood of your business, then decisions are the heart that keeps that money flowing. So think of analytics as a healthy diet. It keeps every area of your business healthy and operating at peak efficiency. Platform analytics asks some important questions like:

  • How can data analytics be efficiently added to our everyday business processes?
  • Are there any areas that we can automate that will improve efficiency?
  • What will back end systems benefit from learning more about our customers?

In most cases, businesses will find that the cloud will enhance their overall data plan, no matter which point they have reached in their growth. Think of it like checking your blood pressure. If there are problems, then you know that you’ll need a diagnosis.

Helps Businesses Transform their Model

Businesses will need to use data in parallel with their model to stay caught up with the changing times as we move forward. In layman’s terms, businesses need to update their core business processes in a way so that it uses data to create opportunities. This opens up a whole new world for their customers, products, and services.

Companies that can forecast using data will see improvements across the board – from their recruitment to their marketing. But there is a specific data-centric approach that must be taken.

  • Must possess an overall vision that includes data and capitalizes on the opportunities presented.
  • Develop a culture that is centered on data and is not afraid to experiment with it.
  • Leverage new technologies to manage their data. Right now, the latest technology is cloud-based so businesses must learn to leverage it.
  • Use data to build trust with consumers.
  • Find innovative ways to gain insight into upcoming trends and tap into there as quickly as possible.

Management of Enterprise Information

Enterprise information management (known as EIM) is an important part of data-driven processes. Most data in businesses is stored in an unmanaged location like a server or some other in-house database. Cloud-based technologies have created a more secure way to store data, but you will still need a data management system in place.

By developing agile data management systems, you will be able to gather and distribute data more efficiently. EIM systems allow businesses to:

  • Streamline all of their processes in a way that simplifies everyone’s job.
  • Improve collaboration among different teams.
  • Improve the productivity of employees.

Creates a Data-Centric Business

This is the most important factor in business today, and it’s the reason why all businesses must start using the latest data analytics strategies. The more useful data a business can generate, the more of an advantage they are going to have. Again, look at leaders like Netflix and Amazon to see this in action. They are generating essential information from everyone who browses their systems. Their entire business models are centered on data, and it’s the number one reason why they are at the top of their respective industries.

Insight, optimization, and innovation are the three main categories of data analytics.

Final Thoughts

The Research Optimus Team understands that having the right data migration system is going to benefit all businesses, both large and small. It’s why their focus has turned to cloud-based technologies. Could-enabled businesses gain a competitive advantage over those who are still relying on older data technologies.

Business moves at supersonic speeds now so if you are not staying current with the latest technology, then you are going to fall behind.

 

Wie künstliche Intelligenz hilft, Krankheiten zu bekämpfen

Die Herausforderungen im Gesundheitswesen sind gewaltig. Die Kosten steigen, das Geld ist knapp und die Margen sinken. Gleichzeitig fehlt es an Pflegepersonal, die vorhandenen Fachkräfte sind überarbeitet. Kliniken müssen effizient wirtschaften, um Patienten die bestmögliche Versorgung zu gewährleisten – und gleichzeitig Datensicherheits- und Compliance-Anforderungen bei der Verarbeitung der anfallenden Daten sicherstellen.

Der Einsatz von künstlicher Intelligenz (KI) kann dabei helfen, dieses Dilemma zu lösen. Algorithmen werden immer besser in dem, was sie tun – und sie arbeiten exakt, schnell und günstig. KI unterstützt in der Medizin und Forschung dabei, Patienten besser zu versorgen, indem beispielsweise Krankheiten früher erkannt werden können. Mit ihrer Hilfe könnten unter anderem die Gesundheitsausgaben in Europa in den kommenden zehn Jahren um einen dreistelligen Milliardenbetrag gesenkt werden, so das Ergebnis der PwC-Studie „Sherlock in Health – How artificial intelligence may improve quality and efficiency, whilst reducing healthcare costs in Europe“. Des Weiteren haben die meisten Patienten keine Berührungsängste: 54 Prozent wären demnach schon heute bereit, sich auf KI und Robotik in der Medizin einzulassen.

KI, ML und DL als medizinische Unterstützung

Algorithmen können in der Medizin auf unterschiedliche Weisen genutzt werden. KI beschäftigt sich mit Methoden, bei denen Computertechnologien es ermöglichen, menschliches Verhalten zu imitieren. Im Rahmen der medizinischen Bildgebung kann KI beispielsweise schnell Anomalien identifizieren, die für das menschliche Auge zu winzig erscheinen – oder große Datenmengen durchforsten. Ein Computertomograph erzeugt bis zu 640 Schnittbilder bei einem einzigen Scan. Wenn ein Radiologe sie ansehen und bewerten müsste, wäre das mit einem sehr hohen Zeitaufwand verbunden. Eine spezielle KI-Applikation kann die Bilder dagegen schnell analysieren und diejenigen markieren, welche Anomalien aufweisen. Die Radiologen können sich damit auf ihre Hauptaufgaben konzentrieren – Diagnose und Heilung. 

Ein weiteres Anwendungsgebiet von künstlicher Intelligenz innerhalb der Medizin ist der Einsatz von Intelligent Agents (IA), zum Beispiel für die Überwachung von Vitalwerten von Patienten oder als Kontrollmechanismus für die Arbeit des Pflegepersonals, der Ärzte oder Apotheker. Die Anwendungen überprüfen dann automatisch, ob die verschriebenen Medikamente und Therapien zum Krankheitsbild und zu den Werten des Patienten passen. 

Anwendungen aus dem Teilbereich der KI „Maschinelles Lernen (ML)“ lernen eigenständig dazu, je mehr Daten erfasst werden. Chirurgen können ML beispielsweise als Unterstützung verwenden, um den richtigen orthopädischen Eingriff nach einer Sportverletzung vorzubereiten. Die Technologie analysiert Patientendaten und kann die Unterschiede bei Knieverletzungen unterschiedlicher Sportarten sichtbar machen. So stehen dem Arzt detaillierte Informationen zur Verfügung, auf deren Basis er die Behandlung fortsetzt.

Deep Learning (DL) wiederum gilt als Teilbereich von ML und geht noch einen Schritt weiter, indem die Algorithmen nicht nur in der Lage sind, selbständig dazuzulernen, sondern sich auch kontinuierlich zu verbessern. So werden große Datenmengen verarbeitet, aus denen Wissenschaftler mögliche neue Erkenntnisse für Behandlungserfolge gewinnen können. Mit Hilfe von DL lassen sich beispielsweise bisher unbekannte Verbindungen zwischen bestimmten demografischen oder genetischen Indikatoren und unterschiedlichen Krankheiten aufdecken. Ebenso gibt es DL-Algorithmen, die mithilfe großer Datenmengen so trainiert werden, dass sie kleinste Veränderungen in der Zellstruktur erkennen können, die beispielsweise zu Brustkrebs führen. Die Fehlerquote bei der Brustkrebserkennung kann damit um bis zu 85 Prozent sinken, so eine Untersuchung von NVIDIA.

Komplexe KI-Projekte benötigen eine passende IT-Infrastruktur

Damit KI, ML und DL im Gesundheitswesen effektiv eingesetzt werden können, gibt es einige Grundvoraussetzungen. Zunächst einmal sind große Datenbestände notwendig. Diese werden genutzt, um die Algorithmen zu trainieren, damit sie akkurat und autonom arbeiten sowie Muster erkennen und genaue Vorhersagen treffen können. Dabei gilt es so viele Daten wie möglich zu berücksichtigen, unabhängig ob sie über verschiedene Systeme verteilt sind, aus unterschiedlichen Quellen stammen oder von mehreren unterschiedlichen Sensoren gesammelt wurden. Jedoch sollten sie eine hohe Datenqualität aufweisen. Darüber hinaus kann es sich um verschiedene Typen von Daten handeln (strukturiert, semi-strukturiert, unstrukturiert), die sich dynamisch entwickeln und verändern. 

Damit Daten überall dort verfügbar sind, wo sie gebraucht werden, gilt es Datensilos aufzulösen und miteinander zu verknüpfen. KI-Projekte stellen somit hohe Anforderungen an die IT-Infrastruktur hinsichtlich Datenverfügbarkeit und Datenqualität, Skalierbarkeit, Informationssicherheit sowie Genauigkeit mit hohen Ansprüchen an die Performance. Eine solch komplexe KI-Umgebung selbst zu planen, zu implementieren und zu unterhalten stellt viele Unternehmen vor große Herausforderungen. Es gibt jedoch schon umfassende Lösungen am Markt. Beispielsweise bietet NetApp zusammen mit NVIDIA und Cisco eine Lösung für die genannten Herausforderungen: ONTAP AI. Diese Architektur vereinfacht das komplette Datenmanagement: Informationen werden über das System sicher erfasst, weitergeleitet und verarbeitet, zum Training verwendet und analysiert.

ONTAP AI basiert auf einer verifizierten Architektur, die NVIDIA DGX-1 GPU‘s mit NetApp All Flash FAS Storage und Cisco Netzwerken zusammenführt und die Effizienz Ihrer KI-/DL-Umgebungen steigert. Herzstück von ONTAP AI ist die NVIDIA DGX-1, ein vollständig integriertes und sofort einsatzbereites Hardware- und Softwaresystem, das speziell für DL entwickelt wurde. Die DGX Plattform nutzt den Deep-Learning-Software-Stack der NVIDIA GPU Cloud, der für maximale GPU-beschleunigte DL-Performance optimiert wurde. Mit dem schnellen All-Flash-Storage und den weltweit ersten End-to-End NVMe-Technologien sorgen NetApp All Flash FAS Systeme für einen kontinuierlichen Datenfluss. So wird sichergestellt, dass die DGX-GPUs optimal mit Daten zur Verarbeitung versorgt werden und somit ein Flaschenhals hinsichtlich Datenbereitstellung durch die Storage-Systeme vermieden wird. 

Schnelle Diagnose

ONTAP AI kommt beispielsweise bei „BacillAi“ zum Einsatz, einem System zur Behandlung von Tuberkulose der Technologieberatungsfirma Cambridge Consultants. Tuberkulose ist die zweithäufigste Todesursache in Entwicklungsländern, da die Krankheit mit einer aufwendigen Diagnose verbunden ist: Zellen einer Speichelprobe müssen unter dem Mikroskop gezählt werden. Doch dafür gibt es nur wenig ausgebildetes medizinisches Personal. BacillAi vereinfacht diesen Schritt – und liefert zudem genauere und schnellere Ergebnisse. Ein Smartphone nimmt die Bilder der Speichelprobe von einem Standardmikroskop auf. Der DL-Algorithmus identifiziert Tuberkulose-Zellen, zählt sie und bestimmt das Stadium der Krankheit. Die Diagnose erhält der medizinische Mitarbeiter über eine App – somit ist das Ergebnis der Untersuchung zudem digitalisiert.

Fazit 

Künstliche Intelligenz kann das Gesundheitswesen revolutionieren. Unternehmen müssen dafür große Datenmengen aus unterschiedlichen Quellen erfassen, vorbereiten, verschieben, auf sie zugreifen und sie schützen. Damit KI, ML und DL-Projekte erfolgreich sind, brauchen Unternehmen aber eine effiziente Daten-Pipeline und eine Architektur, die eine hohe Performance, Sicherheit und Skalierbarkeit ermöglicht.

Weiter Informationen zum Thema finden Sie HIER.

Wie funktioniert Natural Language Processing in der Praxis? Ein Überblick

Natural Language Processing (NLP,auf Deutsch auch als Computerlinguistik bezeichnet) gilt als ein Teilbereich des Machine Learning und der Sprachwissenschaften.

Beim NLP geht es vom Prinzip um das Extrahieren und Verarbeiten von Informationen, die in den natürlichen Sprachen enthalten sind. Im Rahmen von NLP wird die natürliche Sprache durch den Rechner in Zahlenabfolgen umgewandelt. Diese Zahlenabfolgen kann wiederum der Rechner benutzen, um Rückschlüsse auf unsere Welt zu ziehen. Kurz gesagt erlaubt NLP dem Computer unsere Sprache in ihren verschiedenen Formen zu verarbeiten. 

Eine ausführlichere Definition von NLP wurde auf dem Data Science Blog von Christopher Kipp vorgenommen. 

In diesem Beitrag werde ich dagegen einen Überblick über die spezifischen Schritte im NLP als Prozess darstellen, denn NLP erfolgt in mehreren Phasen, die aufeinander Folgen und zum Teil als Kreislauf verstanden werden können. In ihren Grundlagen ähneln sich diese Phasen bei jeder NLP-Anwendung, sei es Chatbot Erstellung oder Sentiment Analyse.

1. Datenreinigung / Normalisierung 

In dieser Phase werden die rohen Sprachdaten aus ihrem ursprünglichen Format entnommen, sodass am Ende nur reine Textdaten ohne Format erhalten bleiben. 

Beispielsweise können die Textdaten für unsere Analyse aus Webseiten stammen und nach ihrer Erhebung in HTML Code eingebettet sein.

Das Bild zeigt eine Beispielseite. Der Text hier ist noch in einen HTML Kontext eingebettet. Der erste Schritt muss daher sein, den Text von den diversen HTML-Tags zu bereinigen. 

 

2. Tokenisierung und Normalisierung (Tokenizing and Normalizing) 

Nach dem ersten Schritt steht als Ergebnis idealerweise reiner Text da, der aber auch Sprachelemente wie Punkte, Kommata sowie Groß- und Kleinschreibung beinhaltet. 

Hier kommt der nächste Schritt ins Spiel – die Entfernung der Interpunktion vom Text. Der Text wird auf diese Weise auf seine Wort-Bestandteile (sog. Tokens) reduziert. 

Zusätzlich zu diesem Schritt kann auch Groß- und Kleinschreibung entfernt werden (Normalisierung). Dies spart vor allem die Rechenkapazität. 

So wird aus folgendem Abschnitt:

Auf diese Weise können wir die Daten aggregieren und in Subsets analysieren. Wir müssen nicht immer das ganze Machine Learning in Hadoop und Spark auf dem gesamten Datensatz starten.

folgender Text 

auf diese weise können wir die daten aggregieren und in subsets analysieren wir müssen nicht immer das ganze machine learning in hadoop und spark auf dem gesamten datensatz starten

 

3. Füllwörterentfernung / Stop words removal 

Im nächsten Schritt entfernen wir die sogenannten Füllwörter wie „und“, „sowie“, „etc.“. In den entsprechenden Python Bibliotheken sind die gängigen Füllwörter bereits gespeichert und können leicht entfernt werden. Trotzdem ist hier Vorsicht geboten. Die Bedeutung der Füllwörter in einer Sprache verändert sich je nach Kontext. Aus diesem Grund ist dieser Schritt optional und die zu entfernenden Füllwörter müssen kontextabhängig ausgewählt werden. 

Nach diesem Schritt bleibt dann in unserem Beispiel folgender Text erhalten: 

können daten aggregieren subsets analysieren müssen nicht immer machine learning hadoop spark datensatz starten

 

4. Pats of speech (POS) 
Als weiterer Schritt können die Wörter mit ihrer korrekten Wortart markiert werden. Der Rechner markiert sie entsprechend als Verben, Nomen, Adjektive etc. Dieser Schritt könnte für manche Fälle der Grundformreduktion/Lemmatization notwendig sein (dazu sogleich unten).

 

5. Stemming und Lemmatization/Grundformreduktion

In weiteren Schritten kann weiter das sogenannte Stemming und Lemmatization folgen. Vom Prinzip werden hier die einzelnen Wörter in ihre Grundform bzw. Wörterbuchform gebracht. 

Im Fall von Stemming werden die Wörter am Ende einfach abgeschnitten und auf den Wortstamm reduziert. So wäre zum Beispiel das Verb „gehen“, „geht“ auf die Form „geh“ reduziert. 

Im Fall der Lemmatization bzw. Grundformreduktion werden die Wörter in ihre ursprüngliche Wörterbuchform gebracht: das Verb „geht“ wäre dann ins „gehen“ transformiert. 

Parts of Speech, Stemming als auch Lemmatising sind vorteilhaft für die Komplexitätsreduktion. Sie führen deswegen zu mehr Effizienz und schnellerer Anwendbarkeit. Dies geschieht allerdings auf Kosten der Präzision. Die auf diese Weise erstellten Listen können dann im Fall einer Suchmaschine weniger relevante Ergebnisse liefern.

Nachfolgende Schritte beim NLP transformieren den Text in mathematische Zahlenfolgen, die der Rechner verstehen kann. Wie wir in diesem Schritt vorgehen, hängt stark davon ab, was das eigentliche Ziel des Projektes sei. Es gibt ein breites Angebot an Python Paketen, die die Zahlenbildung je nach Projektziel unterschiedlich gestalten

 

6a. Bag of Words Methoden in Python (https://en.wikipedia.org/wiki/Bag-of-words_model)

Zu den Bag of Words Methoden in Python gehört das sogenannte TF-IDF Vectorizer. Die Transformationsmethode mit dem TF-IDF eignet sich beispielsweise zum Bau eines Spamdetektors, da der TF-IDF Vectorizer die Wörter im Kontext des Gesamtdokumentes betrachtet.

 

6b. Word Embeddings Methoden in Python: Word2Vec, GloVe (https://en.wikipedia.org/wiki/Word_embedding)

Wie der Name bereits sagt transformiert Word2Vec die einzelnen Wörter zu Vektoren (Zahlenfolgen). Dabei werden ähnliche Wörter zu ähnlichen Vektoren transformiert. Die Methoden aus der Word Embeddings Kiste eignen sich zum Beispiel besser, um einen Chatbot zu erstellen. 

Im letzten Schritt des NLP können wir die so prozessierte Sprache in die gängigen Machine Learning Modelle einspeisen. Das Beste an den oben erwähnten NLP Techniken ist die Transformation der Sprache in Zahlensequenzen, die durch jeden ML Algorithmus analysiert werden können. Die weitere Vorgehensweise hängt hier nur noch vom Ziel des Projektes ab. 

Dies ist ein Überblick über die notwendigen (und optionalen) Schritte in einem NLP Verfahren. Natürlich hängt die Anwendung vom jeweiligen Use Case ab. Die hier beschriebenen NLP Phasen nehmen viele Ungenauigkeiten in Kauf, wie zum Beispiel die Reduzierung der Wörter auf Wortstämmen bzw. den Verzicht auf Großschreibung. Bei der Umsetzung in der Praxis müssen immer Kosten und Nutzen abgewogen werden und das Verfahren dem besonderen Fall angepasst werden. 

Quellen:
  • Mandy Gu: „Spam or Ham: Introduction to Natural Language Processing Part 2“ https://towardsdatascience.com/spam-or-ham-introduction-to-natural-language-processing-part-2-a0093185aebd
  • Christopher D. Manning, Prabhakar Raghavan & Hinrich Schütze: „Introduction to Information Retrieval”, Cambridge University Press, https://nlp.stanford.edu/IR-book/
  • Hobson Lane, Cole Howard, Hannes Max Hapke: „Natural Language Processing in Action. Understanding, analyzing, and generating text with Python.” Manning Shelter Island

Mit den richtigen Prozessen zum Erfolg: vier Schritte zum Business-IT Alignment

Digitalisierung, Agilität, Tech-basiert: Sowohl in der IT-Transformation als auch im Business-Alignment stecken diese drei strategischen Schlagworte. Häufig sorgen sie jedoch nur für oberflächliche Veränderungen. Tatsächlich ist die Abstimmung von Business und IT für viele Unternehmen nach wie vor eine Herausforderung. Die Transformation ist schließlich keine einmalige Umstellung von A auf B, sondern ein dauerhafter Zustand der ständigen Veränderungen.


Read this article in English:

Stop processing the same mistakes! Four mistakes to business & IT alignment


Für ein erfolgreiches Business-IT Alignment benötigen Unternehmen vor allem adaptive Technologien. Nur so können sie mit den Entwicklungen in der Branche und dem zunehmend geforderten Kundenerlebnis auf Technologiebasis Schritt halten. Alignment bedeutet also, die bis dato als getrennt wahrgenommenen Bereiche Business und Technologie miteinander zu verbinden.

Von der Informations- zur Business-Technologie

Ob es um die Organisation von Geschäftsprozessen, die Kommunikation mit Kunden oder die Erbringung von Dienstleistungen geht: Informationstechnologie sorgt in all diesen Bereichen für Veränderungen. Dabei ist die Abstimmung von Business und IT für den Markteinfluss und das Wachstum mehr denn je von entscheidender Bedeutung. Auch wenn es keine vorherrschende Reorganisationsstrategie gibt, tendieren die meisten Unternehmen dazu, ihre IT zu dezentralisieren. Dadurch wird sie näher an die Endnutzer gebracht, die Wissensbasis verschmilzt zudem häufig mit der Geschäftsstrategie. 

Bei dieser Taktik stehen die Geschäftsziele im Mittelpunkt: Die IT kann die Dynamik des Unternehmens schneller mit permanenten Lösungen unterstützen und aufrechterhalten. Technologischer Fortschritt und Verbesserungen werden wiederum in aktuelle und zukünftige Strategien und Initiativen integriert. Besonders erfolgreiche Unternehmen zeichnen sich dadurch aus, dass sie strenge Organisationsstrukturen hinter sich lassen – die traditionelle Frage „In welcher Abteilung arbeiten Sie?“ wird zu „Wie arbeiten Sie?“.

Aber wie beweist die IT ihren Wert und gewinnt das Vertrauen der C-Suite? Laut Gartner haben fast 20% der Unternehmen bereits in Tools investiert, mit denen geschäftsrelevante Kennzahlen überwacht werden können. Bis 2021 sollen es voraussichtlich 60% sein. Das Problem ist jedoch, dass viele I&O-Führungskräfte nicht wissen, wo sie ansetzen sollen, wenn sie eine IT-Überwachungsstrategie initiieren. 

Vier Herausforderungen des Business-IT Alignments

CIOs stehen unter dem zunehmenden Druck, die wachsenden und sich verändernden digitalen Anforderungen zu erfüllen. Zugleich sollen sie auch die Betriebsumgebung mit neuen Funktionen ausstatten und nachweisen, dass die IT einer bestimmten Geschäftsstrategie entspricht. Unabhängig von der Größe eines Unternehmens gilt: Zukunftsorientierten Organisationen kann die Technologie konkrete Vorteile (wie Geschwindigkeit und Leistung) bieten, um operative und Umsatzziele effizient zu erreichen und die Innovationserwartungen ihrer Kunden zu erfüllen. Eine gute technologische Infrastruktur bereichert die Kultur, Effizienz und Kundenbeziehungen eines Unternehmens.

Von 0 auf 100: Business- und IT Alignment

Wer eine kontinuierliche Strategie implementiert, wird mit einer besser funktionierenden Organisation, mehr Gewinn und einem besseren ROI belohnt. Schließlich erreicht man seine Ziele mit weniger Aufwand und agiert dadurch effizienter. Natürlich gibt es keine Standardmethode für eine erfolgreiche Abstimmung. Eine Organisation, in der sich die IT- und Geschäftsstrategie im Einklang befindet, kann ihre Flexibilität und betriebliche Effizienz mit einer maßgeschneiderten Strategie deutlich verbessern. Dieser Kampf zwischen Effizienz und Effektivität war noch nie so entscheidend für das Überleben von Unternehmen wie heute.

In der Tat sind es vor allem erfolgreiche Unternehmen, die sich umfassend mit den Zusammenhängen zwischen IT und Business befassen und die Bedeutung dieser Synergie verstehen. Hervorragende Beispiele hierfür sind Amazon und Apple. Bei beiden Konzernen sind Technologie und technologische Innovation integraler Bestandteil der Betriebsstruktur. In einigen Fällen haben sie ihre Technologie- und Geschäftsstrategien sogar selbst entwickelt.

Konvergenz und Integration

Viele erfolgreiche Unternehmen haben die Effizienz ihrer Technologieinvestitionen gesteigert und die finanziellen und operativen Risiken, die mit geschäftlichen und technologischen Veränderungen einhergehen, erheblich reduziert.

Wenn das Tempo von Veränderungen und geschäftlicher Agilität derart hoch ist, muss man jedoch auch die Konvergenz und Integration einbeziehen und nicht nur die Abstimmung von IT und Business. Mit anderen Worten: Unternehmen müssen ihre Denkweise verändern und auf eine neue Ebene bringen, sodass sich alle Mitarbeiter auf die gemeinsame Schaffung von „echtem Mehrwert“ konzentrieren und schnell auf Kunden und Nutzer reagieren können.

Granulare Strategien

Fehlt eine granulare Strategie, können abweichende Abteilungsziele, Kulturen und Anreize dazu führen, dass Unternehmen zu viel Geld für Technologie ausgeben, ohne dadurch ihre geschäftlichen Herausforderungen zu lösen. Einfacher ausgedrückt: Beim Business-IT Alignment sollte die Technologie in die Strategie, Mission und Ziele eines Unternehmens integriert werden, um folgende Ziele zu erreichen: 

  • Schnellere Markteinführungszeit
  • Höhere Rentabilität
  • Besseres Kundenerlebnis
  • Bessere Zusammenarbeit
  • Mehr Unternehmens- und IT-Agilität
  • Strategische, technologische Transformation

Hot Topic

Sehen Sie sich die Webinaraufzeichnung Empowering Collaboration Between Business and IT mit Fabio Gammerino, Signavio Pre-Sales Consultant, an.

Das Potenzial von Prozessen: vier Schritte zum optimalen Business-IT Alignment

Business-IT Alignment erscheint vielen Organisationen als intuitiver Prozess. Dennoch haben  viele Unternehmen Schwierigkeiten, dieses hochgesteckte Ziel auch tatsächlich zu erreichen. Das liegt nicht nur daran, dass die Abstimmung von IT und Fachbereichen ein aufwendiger und langwieriger Prozess ist. 

Darüber hinaus besteht der Gesamtprozess aus vielen kleineren Teilprozessen. Diese Teilprozesse haben keinen definitiven Start- und Endpunkt, sondern beinhalten einige Lern- und Umsetzungszyklen, die das Gesamtziel schrittweise vorantreiben. Sie sind also keine simplen Lösungen. Durch den Aufbau einer gemeinsamen Sprache und abteilungsübergreifender Beziehungen, die Gewährleistung von Transparenz und die Entwicklung präziser, unternehmensweiter Maßnahmepläne wird eine Brücke zwischen den beiden Bereichen geschaffen.

Vier Schritte zur optimalen Positionierung Ihrer Business-IT Alignment-Strategie:

  1. Planen: Wandeln Sie Geschäftsziele in messbare IT-Services um, sodass Ressourcen effektiv zur Verbesserung von Umsatz und ROI genutzt werde können – dieser Schritt erfordert eine kontinuierliche Kommunikation zwischen den Unternehmens- und IT-Verantwortlichen.
  2. Modellieren: Die IT-Abteilung entwirft eine Infrastruktur zur Optimierung und Verbesserung der geschäftlichen Prozesse. Die IT-Abteilung muss die geschäftlichen Anforderungen verstehen und sicherstellen, dass sie Systeme implementiert, die für das Unternehmen von entscheidender Bedeutung sind.
  3. Verwalten: Der Service erfolgt auf Basis der Unternehmensziele und -erwartungen. Die IT muss als zentraler Ansprechpartner für Serviceanfragen fungieren und auf diese Anfragen entsprechend der vordefinierten Prioritäten eingehen.
  4. Messen: Verbesserung der organisationsweiten Transparenz und der Service Level Commitments. Obgleich Kennzahlen von entscheidender Bedeutung sind, ist es weitaus wichtiger, dass die IT einen Geschäftskontext für die von ihnen gemessenen Daten und eine klare Beziehung zwischen den gemessenen Parametern und den Geschäftszielen sicherstellt.

Die Meinung von Signavio

Die vorübergehende Rotation von IT-Mitarbeitern innerhalb des Unternehmens ist eine der Hauptstrategien für die Ausrichtung von Business und IT, da hierdurch internes Wissen im Unternehmen geteilt wird. Diese Wissensweitergabe sorgt für eine bessere Beziehung zwischen der IT-Abteilung und anderen Unternehmensbereichen und erweitert die Kompetenzen, insbesondere bei neuen Mitarbeitern. Profunde Kenntnisse geben der Organisation mehr Flexibilität, gut ausgebildete Mitarbeiter bei Bedarf in anderen Rollen einzusetzen.

 

Kontaktieren Sie uns

Erfahren Sie, wie Signavio mit der Signavio Business Transformation Suite Ihr Unternehmen bei der IT-Transformation und operativen Exzellenz unterstützen kann. 

Daten als Frühwarnsystem einsetzen

In der klassischen Business Intelligence haben Unternehmen jahrelang Daten in Data Warehouses gesammelt und analysiert, um aus der Vergangenheit Lehren für die Zukunft zu ziehen. Zu seiner Zeit war das eine Revolution, aber da es sich dabei vor allem um Daten aus Transaktionssystemen handelte, war der Nutzen begrenzt. Erst mit der Verbreitung des IoT und von Sensoren, die permanent Daten liefern, konnten auch Gründe für Fehler oder Maschinenausfälle ausgelesen werden. Und wenn diese Gründe bestimmten Mustern folgen, liegt es nahe, einzugreifen, bevor ein Problem auftritt – das ist der Grundgedanke hinter dem Konzept von Predictive Analytics.

Großes bisher meist ungenutztes Potential

Systeme, die Risiken und Abweichungen als Frühwarnsystem erkennen, besitzen ein enormes wirtschaftliches Potential. In der Produktion beispielsweise können Maschinen länger reibungsfrei laufen und auch die IT-Infrastruktur profitiert. Predictive Analytics verändern aber auch die Unternehmensführung von Grund auf: Wenn Entscheidungen nur noch auf Basis von Daten anstatt von einem „Bauchgefühl” getroffen werden, verändert sich auch das Machtgefälle zugunsten der IT.

Wenn Entscheider sich nur noch auf Daten verlassen sollen/wollen und ihr Bauchgefühl ausschalten müssen, dann führt das zu einer Art “kultureller Überforderung” wie die Studie „Predictive Analytics 2018“ von IDG Research Services zeigt. Aber den meisten von ihnen ist klar, dass an dem Thema auf lange Sicht kein Weg vorbei führt. Zum Zeitpunkt der Befragung, die schon etwas zurückliegt, stuften bereits 47 Prozent der Unternehmen die Relevanz von Predictive Analytics als sehr hoch (18 Prozent) oder hoch (29 Prozent) ein. Über ein Drittel war aber bereits der Überzeugung, das Predictive Analytics spätestens 2021 eine sehr wichtige Rolle spielen wird.

Intelligenz in den Workflow bringen

Für Managed-Cloud-Unternehmen wie Adacor gewinnt Predictive Analytics in zweierlei Hinsicht an Bedeutung. Zum einen lassen sich damit Prozesse verbessern, mit denen bereits in der Vergangenheit Themen wie das Management von Server-Log-Daten oder CPU-Auslastungen automatisiert und vorausschauend gesteuert wurden.

Für Private Cloud Services, der maßgeschneiderten Erweiterung von internen Rechenzentren bedeutet dies, Teile des Live-Monitorings nach und nach in ein Predictive-Monitoring umzuwandeln und so auf mögliche Ausfälle oder Beeinträchtigungen von Servern im Vorfeld zu reagieren, um so auch den Ausfall für den Kunden zu verhindern. In einem einfachen Beispiel bewertet ein Deep-Learning Modell, ob auf einem beliebigen System die Festplattenfüllstände in der Zukunft stabil verlaufen werden oder ob mit instabilem Verhalten zu rechnen ist. Wird Stabilität erwartet, dann kann ein simpleres Vorhersagemodell diese Stabilität nutzen und die Füllstände vorhersagen. Ist mit instabilem Verhalten zu rechnen, dann wissen die Administratoren, dass sie ein besonderes Auge auf das entsprechende System werfen sollten. So wird durch vergleichsweise einfache Predictive-Monitoring Methoden bereits eine deutlich erhöhte Ausfallsicherheit der Systeme gewährleistet.

Neben stark individualisierten Cloud-Lösungen werden in Zukunft standardisierte Angebote immer mehr nachgefragt werden, die durch Predictive-Analytic-Tools „intelligenter” werden. Übersetzt bedeutet das, maschinelles Lernen nach Möglichkeit automatisch auf neue Prozesse anzuwenden und so Server bzw. die Cloud noch leistungsfähiger und sicherer zu machen.

Size matters

Die Studie zeigte, dass vor allem große Unternehmen Ressourcen für Analytics-Projekte bereitstellen. Über ein Drittel von ihnen hatte bereits Analytics-Projekte umgesetzt, mehr als die Hälfte davon im Bereich Predictive Analytics. Kleine und mittelständische Firmen hingegen verfügten noch wenig über umfangreiche Analytics-Systeme. Die Ergebnisse aus den Predictive-Analytics-Projekten beeinflussen im Wesentlichen auch die Management-Entscheidungen. 94 Prozent der Firmen, die Predictive Analytics anwenden, steuern über die Auswertungen Prozesse vor allem im IT-Bereich, im strategischen Management sowie in Produktion und Fertigung. Die großen Unternehmen sind also größtenteils schon dabei, sich die Vorteile zu nutzen zu machen. Bei mittelständischen und kleineren Unternehmen besteht noch deutlicher Nachholbedarf. Schon die technischen Voraussetzungen genügen häufig nicht den Anforderungen.

Fast alle Branchen können profitieren

Das erstaunt, denn Predictive Analytics kann in vielen Bereichen als eine Art Frühwarnsystem eingesetzt werden. Es hilft nicht nur dabei, Maschinenausfälle bei Produktionsunternehmen durch vorausschauende Wartungen zu minimieren. Es kann zum Beispiel auch den Vertrieb von Handelsunternehmen optimieren. In der Medizin kommen bereits Methoden zum Einsatz, durch die sich Risikofaktoren schneller identifizieren und die Behandlung von Krankheiten insgesamt verbessern lässt. Versicherungen und auch Finanzinstitute kalkulieren ihre Produkte und Prämien seit jeher erfolgreich auf Basis von Wahrscheinlichkeitsanalysen und Hochrechnungen. Auch im Bereich der Betrugsprävention werden entsprechend Methoden und Tools verstärkt eingesetzt, um Kriminellen das Handwerk zu legen.

Man sieht, es lohnt sich für Unternehmen, die Daten sammeln, ihre Strategie an die neuen Technologien anzupassen. Die aktuellen Möglichkeiten zur Analyse und Aggregierung von Daten und Informationen sind extrem groß. Es kommt darauf an, Muster in den „Big Data” zu erkennen und diese richtig zu interpretieren – anstatt dieselben Fehler immer und immer wieder zu machen.

“Saubere Ablage“ bringt Unternehmen nicht weiter

Unternehmen, die Daten sammeln, um diese lediglich sauber abzulegen und zu archivieren, sollten Ihre Strategie an die neuen Möglichkeiten des Predictive Analytics anpassen. Die aktuellen Möglichkeiten zur Auswertung und zur Verdichtung von Daten zu Informationen und somit zur Generierung von Wissen sind extrem groß. Nur wer Muster im großen Reich der Daten erkennt und diese auch richtig interpretieren kann, wird kann mit Predicitve Analytics ein Frühwarnsystem zu seinen Gunsten aufbauen.

Getting started with the top eCommerce use cases

Nowadays, almost all the projects in eCommerce companies are data-dependent and everyone wants to leverage data science techniques to mine as much information as they can from that data. From tracking their customer’s shopping behavior to recommending them what to buy, from finding new leads for their market to calculating their lifetime value, from improving customer experience to increase their profitability. When we navigate through any website, we leave our traces and companies track these touchpoints to get insights about how we behave online. Companies sometimes have different landing pages based on the gender of the user.

This post will be focused on some of the use cases in marketing which are gaining attention over the past few years. I have been associated with different eCommerce companies as a data science consultant.

Upcoming months has a lot to offer as I will be writing blogs about the following use cases:

  1. Multi-touch attribution: A data-driven approach
  2. Introduction to Recommendation engines
  3. How Important is Customer Lifetime Value?
  4. Customer Segmentation
  5. Dynamic Pricing

 

If you are interested in reading the success story for the Multi-touch attribution project you can find it here.

Scaling Up Your Process Management

Any new business faces questions: have we found the right product/market fit? Does the business model work? Have we got enough money to keep the doors open? Typically, new businesses are focused on staying afloat, meaning anything that isn’t immediately relevant to that goal is left until later—whenever that might be!   


Read this article in German:

Machen Sie mehr aus Ihrem Prozessmanagement


However, most businesses soon realize that staying afloat means finding the most efficient way to deliver their products or services to customers. As a result, the way a business functions starts to move into focus, with managers and staff looking to achieve the same outcome, in the same way, over and over. The quickest route to this? Establishing efficient processes. 

Once a business has clarified the responsibilities of all staff, and identified their business process framework, they are better able to minimize waste and errors, avoid misunderstandings, reduce the number of questions asked during the day-to-day business, and generally operate more smoothly and at a greater pace.

Expanding your business with process management

Of course, no new business wants to remain new for long—becoming firmly established is the immediate goal, with a focus on expansion to follow, leading to new markets, new customers, and increased profitability. Effectively outlining processes takes on even more importance when companies seek to expand. Take recruitment and onboarding, for example. 

Ad hoc employment processes may work for a start-up, but a small business looking to take the next step needs to introduce new staff members frequently and ensure they have the right information to get started immediately. The solution is a documented, scalable, and repeatable process that can be carried out as many times as needed, no matter the location or the role being filled. 

When new staff are employed, they’ll need to know how their new workplace actually functions. Once again, a clear process framework means all the daily processes needed are accessible to all staff, no matter where the employee is based. As the business grows, more and more people will come on board, each with their own skills, and very likely their own ideas and suggestions about how the business could be improved… 

Collaborative process management

Capturing the wisdom of the crowd is also a crucial factor in a successful business—ensuring all employees have a chance to contribute to improving the way the company operates. In a business with an effective process modeling framework, this means providing all staff with the capability to design and model processes themselves. 

Traditionally, business process modeling is a task for the management or particular experts, but this is an increasingly outdated view. Nobody wants to pass up the valuable knowledge of individuals; after all, the more knowledge there is available about a process, the more efficiently the processes can be modeled and optimized. Using a single source of process truth for the entire organization means companies can promote collaborative and transparent working environments, leading to happier staff, more efficient work, and better overall outcomes for the business. 

Collaborative process management helps to grow organizations avoid cumbersome, time-consuming email chains, or sifting through folders for the latest version of documents, as well as any number of other hand brakes on growth. 

Instead, process content can be created and shared by anyone, any time, helping drive a company’s digital and cloud strategies, enhance investigations and process optimization efforts, and support next-gen business transformation initiatives. In short, this radical transparency can serve as the jumping-off point for the next stage of a company’s growth. 

Want to find out more about professional process management? Read our White Paper 7-Step Guide to Effective Business Transformation!