[Zurück]
 
Bitte auswählen
Jahr
Details
Sprache
Sortierung
Ausgabe
neu: RTF !
 Forschungsbericht für das Jahr 2024

Abteilung für Wirtschaftsinformatik

Wirtschaftswissenschaftliches Insitut

Schwerpunkt für Public & Non-Profit Management und ökonomische Nachhaltigkeitsforschung

Platz der Alten Synagoge
79085 Freiburg i. Br.
Tel: 0761-203-2395 Fax: 0761-203-2416
Email wirtschaftsinformatik@vwl.uni-freiburg.de
http://www.is.uni-freiburg.de


Wissenschaftliche Mitarbeiterinnen und Mitarbeiter

  • Prof. Dr. Dirk Neumann, Lehrstuhl für Wirtschaftsinformatik
  • Prof. Dr. Franz Schober, Emeritus (ab 01.10.2006)
  • M.Sc. in Economics & Finance Simon Alfano, Externer Doktorand (m/w)
  • M.Sc in Wirtschaftswissenschaf Marie-Louise Arlt, Externer Doktorand (m/w)
  • M.Sc in Physik Oliver Dlugosch, Externer Doktorand (m/w)
  • LL.M. Daniel Drummer, Externer Doktorand (m/w)
  • M.Sc. Ralph Fehrer, Externer Doktorand (m/w)
  • Dr. Stefan Feuerriegel, Assistent / Gruppenleiter (m/w)
  • M.Sc. Niklas Goby, Externer Doktorand (m/w)
  • M.Sc. in Business Engineering Gunther Gust, Doktorand (m/w)
  • M. Sc. Felix Hannemann, Externer Doktorand (m/w)
  • 'Diplom in Maschinenbau Michael Hörner, Externer Doktorand (m/w)
  • Bernhard Lutz, Doktorand (m/w)
  • M.Sc. Joscha Märkle-Huß , Externer Doktorand (m/w)
  • M.Sc in Wirtschaftsmathematik Christof Naumzik, Externer Doktorand (m/w)
  • Dr. Nicolas Pröllochs, Assistent / Gruppenleiter (m/w)
  • M.A. in Internet Economics Ye Tian, Externer Doktorand (m/w)
  • M.Sc. Christoph Willing, Externer Doktorand (m/w)
Einträge in der Rubrik "Who is Who"

Forschungsschwerpunkte

  • Unter dem Begriff Big Data wird die massiv zunehmende Menge an Informationen in sämtlichen Bereichen der Gesellschaft, Wirtschaft und Wissenschaft verstanden. Diese digital gespeicherten Daten, die weltweit bereits die Zettabytegrenze überschritten haben und täglich wachsen, werden üblicherweise mit den 4 Vs charakterisiert: Danach bezeichnet Big Data massive, täglich wachsende Datensammlungen (Volume) im Tera- bzw. Petabyte Bereich, die in unterschiedlichen Formaten (z.B. Text, Video, strukturierte Daten) vorliegen (Variety) und innerhalb von Millisekunden abge-ändert werden (Velocity) müssen. Typischerweise ist der Wahrheitsgehalt dieser Daten nicht gesi-chert, was die Nutzung erschwert (Veracity). In vielen Anwendungen wie etwa Social Media (Twitter), Sensordaten (wie etwa RFID bzw. Smart Metering) fallen Datensätze an, die unter die Definition Big Data fallen. Die Analyse dieser riesigen Datenmengen bietet offenkundig in allen Bereichen des Lebens große Chancen. Auch aus metho-discher Sicht kann Big Data als neues Forschungsparadigma angesehen werden, da Entscheidungen rein datengetrieben ohne zugrunde liegende Theorie getroffen werden können. Allerdings stellt die Analyse eine enorme Herausforderung für die Wirtschaftsinformatik dar, da einerseits Algo-rithmen benötigt werden, die die riesigen, heterogenen Datenmengen bewältigen können. Ande-rerseits muss gewährleistet sein, dass die Zusammenhänge in den Daten nicht zufällig, sondern kausal begründet sind. Das Forschungsdach des Lehrstuhls für Wirtschaftsinformatik bildet folglich „Big Data Analytics“, mit dessen Hilfe datengetriebene Branchenlösungen generiert werden. Als Anwendungsfokus stehen die drei Bereiche eEnergy, eFinance und eCommerce. Wie die Diskussion um die Spionage-programme PRISM und TEMPORA demonstriert, werden vermehrt Mechanismen benötigt, die die Privatsphäre schützen. Daher werden schon bei der Entwicklung von Big Data Analytics Verfahren Schutzmechanismen zur Wahrung der Privatsphäre integriert (Privacy-by-Design).
  • 1) Anwendungsfeld: Energie: Angesichts explodierender Bevölkerungszahlen, Klimawandel und Atomausstieg steht die Menschheit vor massiven Problemen in der Energieversorgung, einer der zentralen Säulen der Zivilisation. Da die fossilen Energieträger des Planeten begrenzt sind, müssen diese möglichst ef-fektiv, effizient und vor allem nachhaltig eingesetzt werden. Eine derartige, effiziente Nutzung ist allerdings in der heutigen Zeit ohne intelligente ITLösungen nicht realisierbar. Mittlerweile liegen massive Datensätze im Bereich der Energieerzeugung und der Energienutzung (z.B. Smart- Mete-ring- Daten, Mobilitätsdaten) vor, so dass IT- Lösungen sich dieser Datens(ch)ätze bedienen kön-nen. Das Anwendungsfeld kann logisch in die folgenden Teilfelder unterteilt werden: Energieeffi-zienter Transport, Energieeffiziente Systeme, Energiemodellierung und Benchmarking sowie Ener-giepolitikempfehlungen. Der Transport verbraucht große Mengen an Treibstoff und verursacht immense Mengen an CO2 Emissionen. Eine Reduktion des Energieverbrauchs nimmt daher eine zentrale Rolle in der Energieversorgung der Zukunft ein. Ferner werden energieeffiziente Systeme benötigt, die ggf. dezentral die Stromnachfrage und Stromproduktion ohne Versorgungsengpässe jederzeit bei moderater Netznutzung in Einklang bringen. Der Aufbau energieeffizienter Systeme erfordert zwingend, die Stromnachfrage besser zu verstehen. Im Teilbereich Energiemodellierung und Benchmarking werden daher Modelle entwickelt, die die reale Strom- bzw. Energienachfrage adäquat reflektieren. Ferner ist ein Benchmarking alternativer Energiesysteme unter den Zielen der Effizienz, Versorgungssicherheit und Kosten durchzuführen. Aus den Analysen werden im Teil-bereich Politikempfehlungen deduziert, wie die nationale Energieversorgung organisiert werden sollte.
  • a) Energieeffizienter Transport: Der Teilbereich des effizienten Transports spaltet sich einerseits in Green Logistics und an-dererseits in Electric Vehicles auf. Green Logistics fokussiert dabei, inwiefern durch ge-schickte Planungsverfahren Energiekosten und damit CO2 Emissionen verbunden mit dem physischen Transport verringert werden können. Das zweite Feld der Electric Vehicles un-tersucht, inwiefern Elektrofahrzeuge genutzt werden können, um den Energieverbrauch zu senken. Elektrofahrzeuge können als Stromspeichermedium verwendet werden; daher eigenen sie sich zur besseren zeitlichen Koordination von Stromangebot und –nachfrage.
  • b) Energieeffiziente Systeme: Die Entwicklung energieffizienter Systeme gliedert sich in dezentrale Energiesysteme und in der Integration erneuerbarer Energien in die Energieversorgung. Unter dezentralen Energiesystemen (wie etwa Microgrids) werden für gewöhnlich sehr kleine Systeme (1 KW – 60 MW) verstanden, die für gewöhnlich auf Kundenseite installiert sind. Strategisch ge-schickt implementierte dezentrale Energiesysteme können dazu beitragen, auf der Kun-denseite die Energienachfrage zu reduzieren bzw. zu verschieben, um die Spitzenlasten aus dem Netz zu eliminieren. Andererseits dienen dezentrale Energiesysteme auch dazu, dass die Netzbelastung verringert wird, da die lokale Stromnachfrage mit lokaler Stromer-zeugung bedient wird. Die Notwendigkeit eines extensiven Stromtransports entfällt damit weitgehend. Instrumente dezentraler Energiesysteme umfassen dabei die verteilte Strom-generierung (distributed generation), die Nachfragesteuerung (demand-side manage-ment, die Speicherung (energy storage) und rückeinspeisefähige Elektrofahrzeuge (Vehic-le-to-Grid). Als Spezialproblem wird das energieeffiziente Management moderner IT Infra-strukturen (Green Computing) untersucht. Heutzutage verursachen IT-Infrastrukturen ebenso viel schädliche CO2 Emissionen, wie die gesamte Luftfahrbranche. Die Verringerung des Energieverbrauchs ist dabei schwierig, da state-of-the-art IT-Systeme wie etwa Multi-Tier Enterprise Systeme sehr komplex sind, was eine ressourcenschonende Steuerung die-ser Systeme erschwert. Es werden daher Konzepte und Algorithmen entwickelt, welche den Energieverbrauch um bis zu 50% senken. Mit dem Beschluss der Energiewende ent-steht die Notwendigkeit verstärkt regenerative Energien in das Netz einzuspeisen. Anders als Atomkraft sind regenerative Energien sehr volatil und schwer planbar. Daher ist es not-wendig verschiedene regenerative Energieträger mit unterschiedlichen Schwankungsmus-tern in das System so zu integrieren, dass die Varianz des Gesamtsystems verringert wird. Das dritte Teilgebiet widmet sich daher dezidiert der Integration regenerativer Ener-gien in das Gesamtsystem.
  • c) Nachfragemodellierung und Tarifdesign: Das Thema der Nachfragemodellierung für Strom, Gas und Öl ist insbesondere in den 70er und frühen 80er Jahren in vielen theoretischen und empirischen Arbeiten untersucht – ver-lor dann aber an Bedeutung. Mit Hilfe moderner Data-Mining und Ökonometrieverfahren können allerdings neue Phänomene in der Energienachfrage erhoben werden. Die meisten der bekannten Arbeiten untersuchen dabei die kurz- und die langfristige Prei-selastizitäten der Nachfrage bzw. die Einkommenselastizität. Weniger bekannt ist, wie sich die Nachfrage von anderen wichtigen Einflussfaktoren (wie z.B. das Wetter) verändert. Auf Basis dieser Erkenntnisse können anreizkompatible Stromtarife angeboten werden, die das Verhalten der Nachfrager dahingehend lenken, Energie dann nachzufragen, wenn sie aus-reichend vorhanden ist( Off-Peak Perioden). Des Weiteren wird untersucht, inwiefern die Einführung energieeffizienter Technologien die Stromnachfrage tatsächlich senkt und nicht erhöht, wenn nämlich der Einkommenseffekt hervorgerufen durch die Technologieände-rung den Substitutionseffekt dominiert (Jevons Paradox)
  • d) Politikhandlungsempfehlungen und Benchmarking: Auf Basis eines rigorosen Benchmarkings können die entwickelten Lösungen genutzt wer-den, um Handlungsempfehlungen für praktische Umsetzung treffen zu können. Besonde-res Augenmerk liegt dabei darauf, wie die Nutzung neuer Technologien (z.B. Elektroautos oder Micromärkte als lokale Verteilnetze) flächendeckend implementiert werden können.
  • Smart Cities & Industries Group Forschungsfokus: Smart Cities Unsere gegenwärtige Forschung in diesem Bereich konzentriert sich auf nachhaltige Energie- und Mobilitätslösungen. Einerseits analysieren wir, wie Geoanalysen und Optimierungsverfahren eingesetzt werden können, um die Verstärkung und Erweiterung des Stromnetzes intelligent zu planen. Andererseits nutzen wir Analytics-Verfahren, um die Koordination und den Betrieb von Mobilitätsdienstleistungen, wie Carsharing und den öffentlichen Nahverkehr, zu verbessern. Eine Zusammenfassung unserer laufenden und abgeschlossenen Forschungsprojekte gibt es hier. Forschungsfokus: Smart Industries Wir kooperieren mit Industriepartnern um neue Analytics-Verfahren zu entwickeln und zu validieren, die unternehmerische Betriebs- und Managementprozesse verbessern. Eine Zusammenfassung unserer aktuellen Forschungsprojekte gibt es hier. Spin-off: Geospin - Geospatial Intelligence Geospin ist ein Ausgründungsprojekt des Lehrstuhls, das derzeit durch ein EXIST-Gründerstipendium des Bundesministeriums für Wirtschaft und Energie und der Europäischen Union gefördert wird. Es wird geografische Big-Data-Analyseverfahren an den Markt bringen, welche in der SCI Group am Lehrstuhl für Wirtschaftsinformatik entwickelt wurden. Mehr Informationen gibt es auf der Webseite von Geospin. Berkeley-Kooperation Seit 2014 gibt es eine Kooperation auf dem Gebiet der Energieforschung mit dem Lawrence Berkeley National Laboratory in Berkeley, Kalifornien. In diesem Zeitraum konnten inzwischen zwei Doktoranden und zwei Studierende aus den Masterstudiengängen in Berkeley an Forschungsprojekten arbeiten. Mehr Informationen zu ihren Projekten und Erfahrungen gibt es hier.
  • 2) Anwendungsfeld: Finance: Nach der effizienten Markthypothese nach Fama spiegeln Marktpreise sämtliche Informationen wider. Informationen werden im Wesentlichen über Nachrichten (z.B. Agenturmeldungen, Zei-tungsartikel, Twitter Feeds) übermittelt. In finanzwirtschaftlichen Untersuchungen ist dieser Zu-sammenhang in vielen Arbeiten bestätigt, doch sind diese durch methodische Unzulänglichkeiten geprägt, da die Nachrichten nur in Ereignisstudien berücksichtigt werden; der Nachrichtentext wird i.d.R. nicht betrachtet. In dem Anwendungsfeld Finance werden moderne Textmining Verfahren verwendet, um zu analysieren, wie Nachrichten sich auf Preise widerspiegeln. Das Anwendungs-feld ist in die drei folgenden großen Blöcke unterteilt: Informationsverarbeitung in Finanzmärkten, Informationsverarbeitung in Commodity- Märkten (z.B. REITS, Öl, Kohle) und Subjektivität in der Informationsverarbeitung.
  • a) Informationsverarbeitung in Finanzmärkten: Finanzmärkte fallen unter die Kategorie Asset- Märkte, bei denen Bestandsgrößen gehan-delt werden. Asset- Märkte sind dadurch gekennzeichnet, dass Angebot und Nachfrage stets ausgeglichen sind. Damit reagieren Finanzmärkte deutlich schneller auf Nachrichten als Märkte, in denen Stromgrößen gehandelt werden. Im Fokus der Untersuchung stehen dabei, wie Unternehmensnachrichten (z.B. Ad-hoc Nachrichten, 10k filings) sich auf ver-schiedene Indikatoren (z.B. Börsenkurse, Earnings-per-Share, VIX) auswirken. Dazu wer-den geeignete Sentiment-Verfahren entwickelt, die den Nachrichtengehalt möglichst prä-zise reflektieren sollen. Darüber hinaus werden die Neuartigkeit der Nachricht und die vor-gehenden Nachrichten mitberücksichtigt. Des Weiteren werden Topic-Modelle entwickelt, die den Inhalt einer Nachricht automatisiert zusammenfassen. Jedes Topic kann mit einem Sentimentwert präzisiert werden. Jedes Topic kann mit einem Gewicht versehen werden. Derartige Modelle sind in der Lage, den Informationsgehalt und das Sentiment längerer Nachrichten widerzuspiegeln.
  • b) Informationsverarbeitung in Commodity-Märkten: Während im vorgehenden Teilprojekt jede Einzelnachricht mit einem einzigen Effekt kor-respondiert, sind in Commodity-Märkten eine Vielzahl von Nachrichten für einen einzigen Effekt verantwortlich. Dies macht eine Aggregation von Nachrichten in kumulierte Senti-mentmasse erforderlich. Im Rahmen der Forschung wird analysiert, welche Nachrichten tatsächlich neuen Informationsgehalt mit sich tragen und welche Nachrichten für den Öl-markt relevant sind. Ferner wird untersucht, inwiefern eine Kausalität des Zusammenhangs Nachrichten Commodity-Preis konstatiert werden kann. Schließlich werden unterschiedli-che Nachrichtenquellen untersucht, inwiefern Interdependenzen in der Informationsver-arbeitung existieren und über welche Transmissionskanäle diese erfolgen.
  • c) Subjektivität in der Informationsverarbeitung: Dieses Teilprojekt löst sich von der Annahme, dass jeder Marktteilnehmer die Nachricht gleich auffasst. Vielmehr hängt die Bewertung einer Nachricht davon ab, welchen Stand-punkt der jeweilige Leser vertritt. Unterschiedliche Interessensgruppen haben demnach einen unterschiedlichen Blickwinkel auf die entsprechende Nachricht. Es werden daher Verfahren aus dem maschinellen Lernen entwickelt, die die Subjektivität der Nachrichten-perzeption widerspiegeln können. Ein einfaches Verfahren stellen sogenannte Apriori-Algorithmen dar, die den Nachrichtengehalt anhand einer bekannten (Apriori) Verteilung bewerten. Je nach Teilnehmergruppe können alternative Zielgrößen (z.B. Börsenkurse, CDS Spreads) definiert werden, auf Basis dessen die Apriori-Häufigkeiten bestimmt werden können.
  • Social Computing & Finance Research Group Die Social Computing & Finance Research Group betreibt multidisziplinäre Forschung an der Schnittstelle von Informatik, Wirtschaftswissenschaften und Sozialwissenschaften. Unsere Forschungsaktivitäten sind auf ein breites Themenfeld mit gesellschaftlicher Relevanz ausgerichtet, einschließlich sozialer Netzwerke, Finanzmärkte und Systemen zur Entscheidungsunterstützung. Zu diesem Zweck entwickeln und nutzen wir Data Science Methoden und andere computergestüzte Verfahren, mit dem Ziel die menschliche Entscheidungsfindung im digitalen Zeitalter besser zu verstehen. RESEARCH FOCUS: SOCIAL MEDIA We conduct research to understand and predict the reception and dissemination of online news in all its forms. This project thus utilizes large-scale data sources to investigate how feedback, comments or reviews on social platforms affect the decision-making of individuals, businesses, and organizations. Individual research aspects also address the interplay between Tweets and the reception of products and firms. RESEARCH FOCUS: FINANCE The availability of information forms the basis for financial decision-making. This research branch thus studies the reception and processing of financial news as a primary source of information for investors before exercising ownership in stocks. Multiple research streams utilize historic stock market data to study how financial news in various forms impact the price formation on stock markets. RESEARCH FOCUS: TEXT MINING Our research heavily relies on the analytical capabilities of processing and textual materials in various forms. For this purpose, we actively develop novel text mining methods that allow to operationalize the semantic orientation of textual materials. We are confident that the methodological innovations in this research stream will become important tools for researchers and practitioners.
  • 3) Anwendungsfeld: eCommerce: Die zunehmende Vergreisung der Gesellschaft und der damit einhergehenden abnehmenden Mo-bilität der Bürger wird in den nächsten Jahrzehnten eine Vervielfachung des Online- Handels mit sich bringen. Allerdings ist bisher wenig erforscht, wie tragfähige Internetgeschäftsmodelle der Zukunft – konfrontiert mit der Vergreisung der Gesellschaft – aussehen werden. Das Anwendungs-feld eCommerce fokussiert datenorientiert, inwiefern bestehende Geschäftsmodelle Potenzial besitzen, den Handel nachhaltig zu beeinflussen. Bei der Berücksichtigung der Daten werden nicht nur strukturierte Daten und Textnachrichten, sondern auch Bilddaten bzw. deren Metadaten (EXIF Dateien) mitberücksichtigt. Im Anwendungsfeld eCommerce werden drei zentrale Aspekte disku-tiert: (i) datengetriebene Geschäftsmodelle, (ii) elektronische Märkte als Spezialfall von Ge-schäftsmodellen und (iii) Reputationsmechanismen zur Sicherung des Vertrauens im Handel mit Unbekannten.
  • a) Datengetriebene Geschäftsmodelle: Dieses Teilprojekt untersucht digitale Geschäftsmodelle hinsichtlich ihrer Profitabilität und Nachhaltigkeit. Bspw. wird untersucht, inwiefern ein Parkhausbetreiber parkende Elektro-autos zur Stromgenerierung bzw. –konsumption nutzen kann, um am Regelenergiemarkt teilnehmen zu können. Darüber hinaus werden die technischen Herausforderungen an ein solches Geschäftsmodell untersucht, die gelöst werden müssen, so dass das Geschäftsmo-dell die Gewinnzone erreicht. Geschäftsmodelle werden nicht nur hinsichtlich Profitabilität und Nachhaltigkeit des Betreibers betrachtet, sondern wie diese Geschäftsmodelle gene-rell funktionieren. Bspw. soll erklärt mit Hilfe des Immobilienanbieters Craigslist erklärt werden, wie sich die Mietpreise zusammensetzen.
  • b) Elektronische Märkte: Nach der Elektronischen Markthypothese führt der zunehmende IuK-Durchdringungsgrad zu einer vermehrten Bildung von elektronischen Märkten. Während des Platzens der Dot-com -Blase wurden jedoch die meisten neuen elektronischen Märkte in die Insolvenz ge-trieben. Ein Jahrzehnt später scheint ein neuer Anlauf für elektronische Marktplätze ge-kommen zu sein. Allerdings sind elektronische Märkte auf gutes Design angewiesen, damit der Markt eine Win-Win Situation für alle Stakeholder bringt. Im Rahmen dieses Teilpro-jekts werden elektronische Märkte für den Handel innovativer Produkte untersucht. Bspw. kann ein Microgrid durch einen Marktplatz koordiniert werden. Allerdings sind die (techni-schen und ökonomischen) Anforderungen bzgl. Marktmodell und korrespondierenden Qualitätsanforderungen (Verfügbarkeit) speziell an die jeweilige Domäne im Sinne eines Market Engineering anzupassen.
  • c) Reputationsmechanismen: Der vermehrte Handel mit unbekannten Personen macht wirksame und kostengünstige Dursetzungsmethoden erforderlich. Da der Rechtsweg bei Nicht- bzw. Schlechtleistung oftmals zu teuer und zu langsam ist, hat es sich etabliert, Reputationsmechanismen zu ver-wenden, bei denen die historischen Transaktionen offengelegt werden. Allerdings gibt es keinen optimalen Reputationsmechanismus, so dass alle Mechanismen den Verhältnissen entsprechend angepasst werden müssen.
  • 4) Schutz der Privatsphäre: Der Schutz personenbezogener Daten wird im digitalen Zeitalter – wie die aktuelle Diskussion über die Programme PRISM und TEMPORA belegt – immer wichtiger. Gerade im Big Data, wo riesige Datenmengen deutlich mehr Informationen über eine Person enthalten, als dies zuvor der Fall ge-wesen ist. Darüber hinaus wird eine Person mehr und mehr zu einem Cursor im Informationsraum, dessen Informationen lückenlos aufgezeichnet werden können. Daher ist eine Anonymisierung von Daten im Big Data-Zeitalter notwendig. Klassische Verfahren zur Anonymisierung von Datens-ätzen k-Anonymity, l-Diversity und t-Closeness, gehen i.d.R. von begrenzten Datenmengen und einem klar definierten relationalen Datenbankschema aus. Big Data zeichnet sich gerade dadurch aus, dass zahllose heterogene, scheinbar harmlose Einzeldaten Muster gewonnen werden können. Folglich greifen die klassischen Ansätze zu kurz, da diese einmalig fest definierte Attribute und Identifikatoren sowie eine statische Datenlage annehmen. Daher werden neue Konzepte benötigt, die Anonymität im dynamischen Big Data Umfeld sicherstellt.

Wissenschaftliche Publikationen

Originalarbeiten in wissenschaftlichen Fachzeitschriften:
  • Wussow M, Zanocco C, Wang Z, Prabha R, Flora J, Neumann D, Majumdar A, Rajagopal R: Exploring the potential of non-residential solar to tackle energy injustice Nature Energy, 2024; Forthcoming.
Konferenzbeiträge:
  • Lutz B, Adam M, Feuerriegel S, Pröllochs N, Neumann D: Which linguistic cues make people fall for fake news? A comparison of cognitive and affective processing ACM Conference On Computer-Supported Cooperative Work And Social Computing (CSCW), 2024 (San José, Costa Rica). : https://doi.org/10.48550/arXiv.2312.03751

Besondere wissenschaftliche Aktivitäten

Abschlussarbeiten