Am 30. April 2025 veröffentlichte das Bundesministerium für Frauen, Wissenschaft und Forschung einen Entwurf zur Änderung des Universitätsgesetzes 2002 (UG) und des Bildungsdokumentationsgesetzes 2020. Mit der Veröffentlichung begann zugleich die Frist zur Abgabe von Stellungnahmen – diese war mit nur 9 Kalendertagen (6 Werktagen) extrem kurz angesetzt.
Wir stellen die geplanten Änderungen vor und fassen die aus unserer Sicht wichtigsten Stellungnahmen zusammen.
Zentrale Inhalte des Gesetzentwurfs:
- Vereinfachtes Aufnahmeverfahren für Forscherinnen und Forscher aus den USA
- Einführung eines amtlichen, einheitlichen digitalen Ausweises für alle Studierenden.
- Aufbau eines bundesweiten Registers und neuer Schnittstellen zur Digitalisierung und Effizienzsteigerung administrativer Prozesse.
- Lockerungen bei der Vergabe gemeinsamer Diplome in europäischen Studienprogrammen.
- Anpassungen zur Umsetzung des neuen Informationsfreiheitsgesetzes
Inhalte der Stellungnahmen:
Begutachtungsfrist
Zahlreiche Institutionen wie die TU Wien die ÖH und auch der Verfassungsdienst des Bundeskanzleramtes betonen die Unangemessenheit der kurzen Begutachtungsfrist, die eine fundierte und breite Auseinandersetzung mit den geplanten Gesetzesänderungen de facto unmöglich macht (üblicherweise beträgt die Begutachtungsfrist für Gesetzesnovellen zumindest sechs Wochen) - für die aktuelle Novelle waren wie eingangs dargestellt lediglich 9 Kalendertage vorgesehen.
Kettenvertragsregelung
Der Universitätslehrerverband (ULV) nahm die geplante Novellierung zum Anlass, auf ein vermehrt auftretendes Problem in Zusammenhang mit der Kettenvertragsregelung hinzuweisen und eine entsprechende Änderung anzuregen. Die Stellungnahme des ULV kritisiert insbesondere die Anrechnung geringfügiger Beschäftigung während Elternkarenz auf die Befristungsdauer im Wissenschaftsbetrieb und fordert eine klare gesetzliche Regelung zu deren Ausschluss, um hier die Gleichstellung und soziale Fairness zu sichern.
Informationsfreiheit und Einsichtsrechte
Die Novelle will die Bestimmungen des neuen IFG in das UG integrieren und sieht neue Regelungen zur Akteneinsicht und Veröffentlichungspflichten vor. Die Stellungnahmen der TU Wien und des BKA weisen auf Unklarheiten im Verhältnis von UG und IFG hin - besonders wird auf die Problematik hingewiesen, ob einzelne Universitätsorgane oder die gesamte Universität informationspflichtige Stelle sind, und wie mit sensiblen Dokumenten (z.B. Gutachten in Berufungsverfahren) umzugehen ist.
Aufnahme amerikanischer Wissenschafter - "Opportunity Hiring"
Ein wesentlicher Teil der Novelle ist die befristete Sonderregelung für die Anstellung von Forscherinnen und Forschern, die derzeit in den USA tätig sind. Während die meisten Stellungnahmen grundsätzliche Offenheit für diese Regelung zeigen, wird vielfach kritisiert, dass die Regelung zu eng auf die USA zugeschnitten ist und auch Talente aus anderen Staaten adressiert werden sollten.
Studienzulassung für Drittstaatsangehörige
Insbesondere die TU Wien fordert hier strengere Regelungen für die Zulassung und bessere Möglichkeiten zur Steuerung des Zustroms internationaler Studierender – u.a. durch:
- Höhere sprachliche Mindeststandards
- Verpflichtung zu vollständigen Anträgen (sofortige Zurückweisung unvollständiger Bewerbungen),
- Begrenzung der Anzahl der möglichen Zulassungsanträge pro Person und Zulassungsfrist,
- Einführung von Aufnahmeverfahren auch für englischsprachige Bachelorprogramme.
Datenschutz
Das BKA verweist auf offene Fragen beim Datenschutz und auf zahlreiche legistische Unschärfen und empfiehlt, die Umsetzung sorgfältiger zu gestalten und die vorgesehenen Anpassungen besser mit bestehenden Normen abzustimmen.
Die Frist zur Stellungnahme endete am 10. Mai 2025, die endgültige Beschlussfassung im Nationalrat steht damit noch aus. Von der MedUni Wien wurde keine Stellungnahme abgegeben.
- Ivo By
Die Europäische Kommission hat im April 2025 Leitlinien für den verantwortungsvollen Umgang mit generativer Künstlicher Intelligenz (KI) in der wissenschaftlichen Forschung veröffentlicht. Diese Leitlinien dienen als ethisch-normative Orientierung für Forschende, Forschungseinrichtungen und Förderorganisationen. Ihr Ziel ist es, einen ethisch fundierten und verantwortungsbewussten Einsatz von generativer KI zu fördern – ohne dabei starre oder pauschale Regulierungen vorzugeben. Stattdessen bieten sie differenzierte Empfehlungen, die sowohl die Chancen dieser Technologie als auch ihre Risiken beleuchten.
Als „Living Guidelines“ verstehen sie sich als ein dynamisches Dokument, das angesichts der rasanten technischen Entwicklung regelmäßig aktualisiert wird und durch Feedback aus der Forschungscommunity weiterentwickelt werden kann.
Grundprinzipien
Den Leitlinien liegen vier Grundprinzipien zugrunde, welche die ethische Basis des KI-Einsatzes in der Forschung definieren:
- Zuverlässigkeit: Sicherstellung der wissenschaftlichen Qualität und Robustheit der Forschung. Die Anwendung generativer KI soll so erfolgen, dass Forschungsdesign, Methodik, Analyse und Ressourcen verlässlich bleiben. Insbesondere müssen die von KI erzeugten Informationen auf ihre Korrektheit und Reproduzierbarkeit überprüft werden. Forschende sollten sich der möglichen Verzerrungen und Ungenauigkeiten bewusst sein (z.B. durch unausgewogene Trainingsdaten) und Diskriminierungstendenzen proaktiv entgegenwirken, um wissenschaftliche Integrität zu wahren.
- Ehrlichkeit: Transparenz und Aufrichtigkeit in allen Phasen des Forschungsprozesses, von der Planung über Durchführung und Begutachtung bis zur Publikation. Forschende sollen fair, gründlich und unparteiisch handeln und offenlegen, wenn und wie generative KI in der Forschung eingesetzt wurde. Dieses Prinzip fordert die deutliche Kennzeichnung KI-generierter Inhalte und die ehrliche Berichterstattung über Methoden, um Vertrauen in die Forschung zu erhalten.
- Respekt: Ein verantwortungsvoller KI-Einsatz berücksichtigt die Grenzen und Nebenwirkungen der Technologie. Dazu gehören der ökologische Fußabdruck generativer KI-Systeme sowie gesellschaftliche Effekte wie Bias, mangelnde Diversität, Diskriminierungsgefahren, Fairness und die Vermeidung von Schäden. Respekt bedeutet auch, Informationen sorgfältig zu handhaben: Privatsphäre, Vertraulichkeit und Urheber- bzw. geistige Eigentumsrechte sind zu schützen, und fremde Leistungen sowie Quellen sind angemessen zu zitieren.
- Verantwortung: Rechenschaftspflicht für den gesamten Forschungsprozess von der Idee bis zur Veröffentlichung und darüber hinaus. Forschende und Institutionen übernehmen Verantwortung für Training, Betreuung und die organisatorische Umsetzung von Forschung sowie für die breiteren gesellschaftlichen Auswirkungen ihrer Arbeit. Insbesondere bleibt menschliche Kontrolle oberstes Gebot: Forscherinnen und Forscher tragen die Verantwortung für sämtliche Resultate, die sie mithilfe von KI erzielen, und sie behalten stets die letzte Entscheidungsgewalt. Generative KI darf Werkzeuge bereitstellen, aber niemals die Autorschaft oder Entscheidungsverantwortung übernehmen – diese liegen ausschließlich bei den menschlichen Forschenden.
Empfehlungen für Forscherinnen und Forscher
Um generative KI verantwortungsvoll in der Forschung einzusetzen, richten sich die Leitlinien zunächst direkt an Forscherinnen und Forscher. Ihnen wird insbesondere empfohlen:
- Verantwortung beibehalten: Die primäre Verantwortung für alle wissenschaftlichen Ergebnisse bleibt bei den Forschenden selbst – auch wenn KI-Tools genutzt werden. Wissenschaftlerinnen müssen für die Integrität jeder Information, die durch oder mit Unterstützung von KI generiert wurde, einstehen. Sie sollten Ergebnisse aus KI stets kritisch hinterfragen und validieren, da solche Systeme fehlerhafte oder irreführende Inhalte (etwa Halluzinationen oder falsche Zitate) produzieren können. Wichtig ist, dass KI-Systeme niemals als (Ko-)Autorinnen gelten: Autorschaft impliziert intentionale Zuschreibung und Verantwortung, die ausschließlich Menschen vorbehalten ist. Forschende müssen also die durch KI gewonnenen Erkenntnisse eigenständig prüfen und in ihre Arbeit verantwortungsvoll integrieren.
- Transparenz beim KI-Einsatz: Der Einsatz von generativer KI im Forschungsprozess soll offengelegt werden. Forschende sollten klar benennen, welche KI-Werkzeuge sie substanziell genutzt haben und in welchen Phasen (z.B. bei Literaturrecherche, Datenauswertung oder Textentwurf). Wird KI maßgeblich in der Forschung eingesetzt, gehört dieser Umstand transparent in Publikationen, Berichten oder Bewerbungen kommuniziert. Zudem sollen die Grenzen der verwendeten KI-Modelle offengelegt und deren Einfluss auf Ergebnisse diskutiert werden. Indem Forscher die Zuverlässigkeit und Reproduzierbarkeit KI-generierter Resultate überprüfen und auf potentielle Bias oder Unschärfen hinweisen, wahren sie Transparenz und wissenschaftliche Nachvollziehbarkeit.
- Schutz von Privatsphäre und Vertraulichkeit: Beim Umgang mit sensiblen oder vertraulichen Informationen ist besondere Vorsicht geboten. Eingaben in generative KI (z.B. Texte, Daten, Bilder oder sonstige unveröffentlichte Forschungsergebnisse) können vom KI-Anbieter mitgespeichert oder weiterverwendet werden (etwa zum Training von Modellen). Deshalb sollten Forschende keine vertraulichen Daten oder unveröffentlichten Forschungsergebnisse ungeprüft in externe KI-Systeme eingeben, sofern nicht sichergestellt ist, dass diese Daten weder weitergereicht noch für andere Zwecke (wie zukünftiges Training) genutzt werden. Insbesondere personenbezogene Daten Dritter dürfen nur dann in KI-Tools eingespeist werden, wenn die betroffenen Personen dem zugestimmt haben und die Nutzung mit geltenden Datenschutzregeln (insb. der EU-Datenschutz-Grundverordnung) vereinbar ist. Forschende sind angehalten, sich über die technischen, ethischen und sicherheitstechnischen Implikationen der von ihnen genutzten KI-Dienste zu informieren – etwa wer den Dienst betreibt (öffentlich, privat, kommerziell), wo die Daten verarbeitet werden und welche Nutzungsbedingungen gelten. Institutionelle Richtlinien und Datenschutzeinstellungen der Tools sollten beachtet werden, um Vertraulichkeit und geistige Eigentumsrechte zu wahren.
- Einhaltung rechtlicher Vorgaben: Generative KI in der Forschung ist stets im Rahmen der anwendbaren nationalen, europäischen und internationalen Gesetze zu nutzen – insbesondere hinsichtlich Urheberrecht und Datenschutz. Forschende müssen darauf achten, dass KI-Outputs nicht unbeabsichtigt Plagiate erzeugen. Wenn KI z.B. Text, Code oder Bilder liefert, die auf den Werken Dritter basieren, sind diese Quellen zu erkennen und ordnungsgemäß zu zitieren, um die Urheberschaft anderer zu respektieren. Auch dürfen KI-Modelle nicht dazu verwendet werden, Forschungsdaten zu fälschen oder zu manipulieren – wissenschaftliche Redlichkeit bleibt oberstes Gebot. Sollte ein generatives KI-System personenbezogene Daten im Output produzieren (etwa indem es aus Trainingsdaten etwas reproduziert, das jemanden identifiziert), müssen Forschende verantwortungsvoll damit umgehen und die Datenschutzvorschriften strikt einhalten. Die Wahrung von Autorenrechten und der Schutz sensibler Informationen gelten also gleichermaßen für mittels KI generierte Inhalte wie für konventionell erzeugte.
- Kompetenzen und Bewusstsein ausbauen: Angesichts der schnellen Weiterentwicklung generativer KI sollten Forschende sich kontinuierlich fortbilden, um diese Werkzeuge optimal und verantwortungsvoll zu nutzen. Die Leitlinien empfehlen, verfügbare Schulungen und Trainings wahrzunehmen, um z.B. effektiv zu prompten (Eingabeanweisungen zu formulieren), Ausgaben korrekt zu interpretieren und etwaige Fehlentwicklungen zu erkennen. Forscherinnen sollten sich regelmäßig über neue Funktionen und bewährte Verfahren im Umgang mit KI informieren und einen Erfahrungsaustausch mit Kolleginnen pflegen, um voneinander zu lernen.
- KI nicht für sensible Bewertungsaufgaben einsetzen: Die Leitlinien raten dringend davon ab, generative KI für sensible Aufgaben der wissenschaftlichen Qualitätssicherung oder Bewertung substanziell einzusetzen – etwa bei Peer-Reviews, Gutachten oder der Bewertung von Forschungsanträgen. Solche Kernaufgaben erfordern menschliches Urteil, Fairness und Vertraulichkeit, die durch KI nicht garantiert werden können. Der Verzicht auf KI in diesen Bereichen verhindert zum einen mögliche Verzerrungen oder Fehlurteile, die durch die bekannten Limitationen aktueller Modelle (Halluzinationen, Bias etc.) entstehen könnten. Zum anderen schützt er das geistige Eigentum und die Originalität wissenschaftlicher Arbeiten: Würde man z.B. ein unveröffentlichtes Manuskript einer KI zur Begutachtung anvertrauen, bestünde das Risiko, dass dessen Inhalte ins Training künftiger Modelle einfließen oder anderweitig ungeklärt wiederverwendet werden. Durch Zurückhaltung beim KI-Einsatz in solchen heiklen Prozessen stellen Forschende sicher, dass Transparenz, Fairness und Vertrauen im wissenschaftlichen Bewertungssystem erhalten bleiben.
Empfehlungen für Forschungseinrichtungen
Auch Forschungseinrichtungen – wie Universitäten, Institute und andere wissenschaftliche Organisationen – spielen eine entscheidende Rolle beim verantwortungsvollen Einsatz von KI. Die Leitlinien empfehlen daher, dass Einrichtungen als Rahmengeber geeignete Maßnahmen ergreifen. Forschungseinrichtungen sollten insbesondere:
- eine Kultur des verantwortungsvollen KI-Einsatzes fördern: Einrichtungen sollten aktiv eine Organisationskultur etablieren, die den verantwortungsvollen Umgang mit generativer KI unterstützt. Konkret bedeutet dies, Richtlinien und Schulungen bereitzustellen, damit Mitarbeitende aller Karrierestufen den kompetenten Umgang mit KI erlernen. Schulungsinhalte sollten unter anderem das Prüfen von KI-Ergebnissen, den Schutz der Privatsphäre, den Abbau von Verzerrungen sowie den Erhalt von Urheberrechten und vertraulichem Wissen abdecken. Zudem sollen Forschungseinrichtungen ein Vertrauensklima schaffen, in dem Forschende sich trauen können, den Einsatz von KI-Assistenz in ihrer Arbeit offen zuzugeben, ohne negative Konsequenzen befürchten zu müssen. Transparenz über KI-Nutzung darf nicht sanktioniert, sondern sollte als Teil guter wissenschaftlicher Praxis verstanden werden. Schließlich obliegt es den Institutionen, interne Leitfäden auszuarbeiten und Support anzubieten, um die Einhaltung rechtlicher und ethischer Anforderungen sicherzustellen – etwa im Hinblick auf Datenschutzgesetze, Urheberrechte oder ethische Prüfverfahren.
- Einsatz und Entwicklung von KI systematisch beobachten: Forschungseinrichtungen sollten die Nutzung von generativer KI in ihren Reihen aktiv nachverfolgen und evaluieren. Dies beinhaltet, einen Überblick darüber zu behalten, welche KI-Systeme in welchen Bereichen der Forschung verwendet werden und wie sie sich weiterentwickeln. Solches Monitoring kann der Organisation vielfältig nutzen: Zum einen können die gewonnenen Erkenntnisse dazu dienen, bedarfsgerechte Schulungen zu konzipieren und herauszufinden, wo zusätzlicher Support nötig ist. Zum anderen hilft die Dokumentation der KI-Nutzung, mögliche Missbräuche oder Fehlentwicklungen frühzeitig zu erkennen und gegenzusteuern. Die Leitlinien regen an, diese Erfahrungen auch mit der wissenschaftlichen Gemeinschaft zu teilen, um gemeinsam vom Lernprozess zu profitieren. Ferner sollten Einrichtungen die technischen Grenzen und Leistungsfähigkeit der eingesetzten KI-Werkzeuge analysieren und ihren Forschenden entsprechendes Feedback sowie Empfehlungen geben – beispielsweise welche Modelle sich für welche Aufgaben eignen oder wo Vorsicht geboten ist.
- Leitlinien und Standards institutionell verankern: Die generischen Empfehlungen dieser EU-Leitlinien sollten nach Möglichkeit in die internen Regelwerke der Forschungseinrichtungen integriert oder daran ausgerichtet werden. Das heißt, Einrichtungen sollten ihre bestehenden Richtlinien zu guter wissenschaftlicher Praxis und Ethik um Aspekte des KI-Einsatzes ergänzen oder diese Leitlinien direkt als Referenz heranziehen. Idealerweise werden dabei die Forschenden und weiteren Stakeholder der Organisation einbezogen – zum Beispiel durch offene Diskussionen oder Workshops über den sinnvollen Gebrauch von generativer KI. Die Leitlinien der EU können als Grundlage für den Dialog dienen.
- Vertrauenswürdige KI-Infrastruktur bereitstellen: Wann immer möglich, sollten Forschungseinrichtungen erwägen, generative KI-Tools unter eigener Kontrolle bereitzustellen, etwa lokal gehostete Modelle oder Cloud-Dienste, die von vertrauenswürdigen Partnern betrieben werden. Indem Institutionen KI-Werkzeuge selbst verwalten (oder über verlässliche Dritte, z.B. europäische Plattformen, bereitstellen), schaffen sie eine Umgebung, in der Forschende sensible wissenschaftliche Daten nutzen können, ohne diese an unbekannte externe Anbieter weiterzugeben. Dies erhöht den Schutz von Daten und Vertraulichkeit erheblich.
Empfehlungen für Forschungsförderorganisationen
Schließlich richten sich die Leitlinien auch an Forschungsförderorganisationen und Förderinstitutionen. Diese Organisationen haben durch ihre Förderpolitik und Bewertungskriterien erheblichen Einfluss darauf, wie KI in der Forschung eingesetzt wird. Die Leitlinien schlagen vor, dass Forschungsförderer folgende gute Praktiken übernehmen:
- Verantwortungsvollen KI-Einsatz gezielt fördern: Förderinstitutionen sollten ihre Programme und Förderinstrumente so gestalten, dass sie den ethischen und verantwortungsvollen Einsatz von generativer KI in Forschungsprojekten unterstützen. Konkret kann dies bedeuten, dass Ausschreibungen und Förderbedingungen offen dafür sind, KI-Technologien sinnvoll einzusetzen, solange dies im Einklang mit wissenschaftlichen Qualitätsstandards und Ethik erfolgt. Förderorganisationen können positiv bewerten, wenn Projekte KI nutzen, um ambitionierte Forschungsziele zu erreichen, sofern die Antragstellenden darlegen, dass sie dies reflektiert und regelkonform tun. Gleichzeitig müssen Förderer sicherstellen, dass alle geförderten Vorhaben die geltenden nationalen und EU-Vorschriften einhalten – etwa Datenschutzgesetze oder Urheberrechtsbestimmungen – und den Grundsätzen guter wissenschaftlicher Praxis beim KI-Einsatz folgen. In ihren Leitlinien gegenüber Geförderten sollten sie klar kommunizieren, dass generative KI-Technologien willkommen sind, aber nur im Rahmen von ethisch und rechtlich einwandfreiem Vorgehen.
- Eigenen KI-Einsatz verantwortungsvoll überprüfen: Förderorganisationen sollten auch in ihren internen Abläufen generative KI nur mit großer Umsicht einsetzen und damit eine Vorbildfunktion einnehmen. Insbesondere bei Bewertungs- und Auswahlprozessen für Forschungsanträge gilt: Die Organisation selbst bleibt voll verantwortlich für jede Entscheidung – KI darf hier höchstens unterstützend wirken, aber niemals eigenständig Bewertungen treffen. Die Leitlinien betonen, dass Förderinstitutionen bei Verwendung von KI-Tools in solchen Prozessen äußerste Transparenz walten lassen müssen (z.B. wenn KI zur Plausibilitätsprüfung oder Vorsortierung von Anträgen genutzt wird) und dass Fairness sowie Vertraulichkeit der Begutachtungsverfahren nicht beeinträchtigt werden dürfen. Generative KI kann etwa helfen, interne Verwaltungsprozesse effizienter zu gestalten, doch sie darf keinesfalls die inhaltliche Begutachtung oder wissenschaftliche Bewertung von Projekten übernehmen – diese obliegt nach wie vor Menschen, um Neutralität und fachliche Qualität zu gewährleisten. Außerdem sollten Förderer nur solche KI-Systeme für interne Zwecke auswählen, die hohen Standards genügen: Qualität und Verlässlichkeit der Ergebnisse, Transparenz der Funktionsweise, Integrität der Datenverarbeitung, Einhaltung von Datenschutz und Vertraulichkeit, Respektierung von geistigen Eigentumsrechten und ein vertretbarer ökologischer Fußabdruck des Tools sollten Kriterien bei der Tool-Auswahl sein.
- Transparenz von Antragstellenden einfordern: Die Leitlinien empfehlen Förderinstitutionen, Offenheit im Umgang mit KI auch von jenen zu verlangen, die Fördermittel beantragen. In der Praxis sollten Antragsformulare oder -richtlinien so angepasst werden, dass Forschende angeben müssen, ob und wie sie generative KI wesentlich genutzt haben, um ihren Antrag oder das geplante Forschungsvorhaben vorzubereiten. Zum Beispiel könnten Antragstellende erklären, wenn KI-Tools bei der Literaturrecherche, Hypothesenfindung oder Datenanalyse eine größere Rolle gespielt haben. Ebenso sollten sie darlegen, welche Rolle KI im geplanten Projekt spielen wird. Diese Angaben helfen den Gutachtern, den Einsatz von KI im Kontext der vorgeschlagenen Forschung einzuschätzen. Wichtig ist, dass Förderorganisationen gleichzeitig ein Vertrauensklima schaffen: Forschende dürfen keinen Nachteil befürchten, wenn sie KI-Nutzung transparent machen.
- Beobachtung und Bildung unterstützen: Angesichts des schnellen Fortschritts im Bereich KI sollten Förderorganisationen kontinuierlich die Entwicklung der Technologien und deren Auswirkungen auf die Wissenschaft beobachten und proaktiv mitgestalten. Konkret können sie Programme auflegen oder finanziell unterstützen, die der Weiterbildung von Forscherinnen und Forschern in Bezug auf ethischen und effektiven KI-Einsatz dienen. Die Förderung von Workshops, Kursen oder neuen Studienprogrammen zum Thema KI in der Wissenschaft zählt ebenso dazu wie die Unterstützung von Forschungsprojekten, die die Folgen von KI auf Forschungsprozesse untersuchen. Die aktive Einbindung in die KI-Landschaft – etwa durch Teilnahme an Arbeitsgruppen, Konferenzen oder Konsultationen zum Thema KI in der Forschung – ermöglicht es Förderern, die Rahmenbedingungen für einen zukunftsfähigen und verantwortungsvollen Wissenschaftsbetrieb mitzugestalten.
- Ivo By
Mit Abschluss der COVID-19-Sonderberichte und der Budgetdokumentation für 2024 liegt nun eine konsolidierte Übersicht über die tatsächlichen Gesamtausgaben der Republik Österreich im Zusammenhang mit der Corona-Pandemie vor. Die nun verfügbaren Daten erlauben es, erstmals eine umfassende Bilanz der pandemiebedingten Kosten zu ziehen – aufgeschlüsselt nach Gesundheitsausgaben, Wirtschaftshilfen, Kurzarbeit und anderen Maßnahmen quer durch die Ressorts.
Insgesamt summierten sich die pandemiebedingten Auszahlungen des Bundes von März 2020 bis Ende 2024 auf etwa 46,6 Milliarden Euro (beinahe die Hälfte eines jährlichen Bundesbudgets vor der Pandemie). Auffällig ist, dass viele Corona-bedingte Ausgaben nicht im Gesundheitsressort anfielen, sondern über Sonderfonds oder andere Ministerien abgewickelt wurden. Im Folgenden wird ein Überblick über die wichtigsten Kostenblöcke gegeben – gegliedert nach Bereichen Gesundheit, Wirtschaftshilfen, Kurzarbeit sowie weitere Bereiche:
Gesundheitsausgaben (Tests, Impfungen & Co.)
Das Gesundheitsministerium berichtet für die Jahre 2020 bis Ende 2024 Gesamtaufwendungen von 11,46 Mrd. €.). Darin enthalten sind vor allem die Massentests und Impfprogramme: 5,18 Mrd. € kosteten allein die umfangreichen COVID-19-Tests, vergleichsweise magere 1,77 Mrd. € wurden für die Impfkampagne ausgegeben und COVID-19-Medikamente sowie Therapeutika schlugen mit rund 344 Mio. € zu Buche. Zahlreiche Corona-Maßnahmen wurden über andere Budgets finanziert, origineller weise beispielsweise auch Schultestungen und betriebliche Tests. Die Tests an Schulen wurden über das Bildungsministerium abgewickelt und vom Arbeitsministerium gab es Förderungen für Tests in Unternehmen. Auch Kosten für Schutzausrüstung in Spitälern oder den Aufbau von Test-Infrastruktur wurden teils via Sondermittel getragen und nicht im Gesundheitsbudget verbucht.
Exemplarisch für die Dimension dieser Ausgaben: Bis Ende 2023 wurden österreichweit rund 208 Millionen COVID-Tests über die vom Gesundheitsministerium finanzierten Programme durchgeführt – davon 110 Mio. PCR-Tests und weitere 51 Mio. Antigentests in Apotheken Zusätzlich gab es Millionen von Tests in Schulen und Betrieben, die – wie erwähnt – über andere Stellen finanziert wurden.
Die Impfkampagne umfasste bis Ende 2023 etwa 21 Mio. verabreichte Impfdosen (fast 10 Mio. Dosen wurden gespendet).
Wirtschaftshilfen für Unternehmen
Der zweite große Block der Corona-Ausgaben entfällt auf die Unterstützung der Wirtschaft. Die COFAG wurde 2020 eigens gegründet, um rasch Hilfsgelder auszuzahlen, bis zu ihrer Auflösung im Sommer 2024 wurden über diese Agentur rund 15,8 Mrd. € an Unternehmen ausbezahlt.
Neben den COFAG-Zuschüssen gab es den Härtefallfonds für Kleinstunternehmer, Ein-Personen-Unternehmen (EPU) und neue Selbständige. Dieses Instrument, abgewickelt von der Wirtschaftskammer (WKÖ), zahlte in mehreren Phasen insgesamt etwa 2,4 Mrd. € an Unterstützungsleistungen aus. Darüber hinaus gab es zahlreiche branchenspezifische Hilfen und Sonderprogramme, die unter dem Strich ebenfalls in die Milliarden gingen.
Kurzarbeit und arbeitsmarktpolitische Maßnahmen
Bis Ende 2022 wurden insgesamt 9,82 Mrd. € für Corona-Kurzarbeitsbeihilfen ausgezahlt, allein 2020 flossen knapp 5,5 Mrd. € in Kurzarbeitszahlungen, 2021 noch einmal rund 3,7 Mrd. €. Damit war die Kurzarbeit laut Rechnungshofbericht das teuerste einzelne Hilfsinstrument zur Krisenbewältigung (wurde im Budget nicht über den Krisenfonds, sondern über die Arbeitsmarktfinanzierung verbucht).
Weitere Bereiche: Bildung, Soziales und Verwaltung
Ein großer Posten war hier z. B. die Unterstützung für Familien und soziale Härtefälle. Im Jahr 2020 wurde ein einmaliger Kinderbonus von 360 € pro Kind ausgezahlt, um Familien zu unterstützen – diese Maßnahme verursachte rund 680 Mio. € an Ausgaben (veranschlagt im Familienressort) und macht den Hauptteil der 688,5 Mio. € an Corona-Ausgaben des Bundes im Bereich Familie im Jahr 2020 aus. Zusätzlich wurde ein Familien-Härteausgleichsfonds eingerichtet.
Laut Bildungsministerium flossen bis Ende 2022 etwa 247 Mio. € in Corona-Maßnahmen für Bildung, Jugend und Sport – davon allein 139 Mio. € an die Schulen (für Tests, Masken, Raumbelüftung, Nachhilfeprogramme etc.). Bis Ende 2023 stiegen die Bildungs-Ausgaben im Zuge der Pandemie weiter an; dem parlamentarischen Finanzbericht lassen sich insgesamt rund 826 Mio. € für das Bildungsressort im Zusammenhang mit COVID-19 entnehmen (inklusive Hochschulbereich).
Nicht zu vergessen ist der öffentliche Verwaltungsaufwand, der durch Corona entstand (bzw. diesem zugeordnet wurde). Dazu zählen einerseits direkte Verwaltungskosten für die Abwicklung der Hilfsprogramme – beispielsweise wurden Berater und IT-Systeme für die COFAG um 21 Mio. € (!) angekauft und auch die Implementierung des grünen Passes, von Teststraßen oder Hotline-Einrichtungen verursachte administrative Kosten. Rechnet man alle sonstigen Posten zusammen – von Familienbonus über Bildungs- und Verwaltungskosten bis zu Gemeindehilfen – ergibt sich ein Betrag von ungefähr 5,5 Mrd. €, der außerhalb der großen Hauptkategorien (Gesundheit, Unternehmenshilfen, Kurzarbeit, Härtefallfonds) angefallen ist.
- Ivo By
Die Ankündigung von Donald Trump, Zahlungen – unter anderem – an die Harvard University zu blockieren, hat international für Aufsehen gesorgt. Ohne an dieser Stelle auf die dafür vorgebrachten Gründe oder auf die grundsätzliche Frage einzugehen, in welchen Themenbereichen staatliche Vorgaben an Universitäten zulässig sein sollten, fällt vor allem eines auf: die enormen Summen, die in den Medien kolportiert werden. Die Rede ist von rund 2,3 Milliarden US-Dollar bereits blockierter Mittel; in Aussicht gestellt wurde sogar die Streichung von bis zu 9 Milliarden US-Dollar an Bundeszuschüssen und -aufträgen für Harvard.
Harvard ist eine private Hochschule, welche sich zu einem beträchtlichen Teil durch Studiengebühren finanziert (siehe später in diesem Beitrag). Die (in Zusammenhang mit der Streichung angeführten) "staatlichen Mittel" sind im wesentlichen tatsächlich Drittmittel für Forschung über Bundesbehörden wie das NIH (National Institutes of Health), die NSF (National Science Foundation) oder das Bildungs- und Verteidigungsministerium.
Diese Drittmittel machen rund 10–15 % der Harvard-Einnahmen aus, daneben gibt es indirekte staatliche Förderungen. Als gemeinnützige Bildungsinstitution genießt Harvard etwa umfassende Steuervorteile: Einkünfte (z. B. aus dem Stiftungsvermögen, welches mit über 50 Milliarden US-Dollar das größte Universitäts-Stiftungsvermögen der Welt darstellt) sind weitgehend steuerbefreit, und Spenden an Harvard können von der Steuer abgesetzt werden. Darüber hinaus fließen Bundesgelder über Studierende an Harvard, wenn Studierende staatliche Stipendien oder vom Bund garantierte Studiendarlehen nutzen.
Ausbildungsstruktur und Kosten
Harvard Medical School ist eine Graduate School – das Medizinstudium dort setzt einen abgeschlossenen Bachelor voraus. Ein angehender Arzt in den USA durchläuft klassisch zunächst 4 Jahre College (Bachelor) und anschließend 4 Jahre Medical School, wonach der MD (Doctor of Medicine) verliehen wird. In Summe sind das also rund 8 Studienjahre ab High-School-Abschluss. Bei den Studienkosten gehört das Studium an Harvards Medical School zu den teuersten der Welt: jährlich fallen hier rund 70.000 US-Dollar an, hinzu kommen weitere Gebühren (Krankenversicherung, Campus-Service..) – in Summe liegt die jährliche Gesamtkostenbelastung für einen Harvard-Medizinstudenten damit bei über 100.000 $
Im Vergleich: Medizinische Privatuniversitäten in Österreich weisen eine vorgesehene Studiendauer von 5 (Paracelsus) oder 6 Jahren mit Bachelor/Masterarchitektur auf, die Studiengebühren liegen aktuell an der PMU Salzburg wie auch an der Karl Landsteiner Privatuni (Humanmedizin) bei rund 21.000 € pro Jahr
Abschließend noch ein Größenvergleich: laut verfügbaren Zahlen sind in Harvard aktuell 21000 Studierende eingeschrieben (UniWien: ~80000, MedUni Wien: ~8000).
- Ivo By
- Details
Die Medizinische Universität Innsbruck hat einen neuen Rektor: Gert Mayer wurde am Samstag in einer Sitzung des Universitätsrates im ersten Wahlgang gewählt.
Nach einem Hearing von acht BewerberInnen hatte der Senat mit Gert Mayer (Direktor der Universitätsklinik für Innere Medizin IV), Anna Buchheim (Professorin für Klinische Psychologie II, Dekanin der Fakultät für Psychologie und Sportwissenschaft) und Lukas Huber (Professor am Institut für Zellbiologie der MedUni Innsbruck) in den Dreiervorschlag gewählt – in dieser Reihenfolge. Der Universitätsrat (der in seiner Wahl an den Dreiervorschlag, nicht jedoch an die Reihung des Senats gebunden ist) wählte am Samstag aus diesen – ausschließlich von Innsbrucker Universitäten stammenden - den Erstgereihten Mayer.
Mayer folgt damit ab 1. Oktober Wolfgang Fleischhacker, welcher seit 2017 als Rektor fungierte.
- Ivo By
Welche konkreten Punkte zu Wissenschaft und Universitäten finden sich im Regierungsprogramm der neuen Türkis-Rot-Pinken Koalition? Die Universitätenkonferenz (Uniko) zeigt sich dazu grundsätzlich höflich, kritisiert jedoch die untergeordnete Rolle von Wissenschaft und Forschung in den Regierungsverhandlungen – wir fassen die (derzeit absehbar) wichtigsten Inhaltspunkte und die Stellungnahmen der Uniko dazu zusammen.
- Die Wissenschaftsagenden wurden aus dem Bildungsbereich herausgelöst und ins Frauenministerium überführt (was im universitäre Bereich bestenfalls für gemischte Reaktionen sorgte)
- Ein zentraler Punkt ist die geplante Profilbildung und Neuausrichtung der Pädagogischen Hochschulen (PH). Laut Regierungsprogramm sollen die 14 PHs und die Lehramtsbereiche der Universitäten organisatorisch stärker vernetzt und nach dem Modell der Schools of Education weiterentwickelt werden. Die Uniko warnt hier vor einer Ausweitung bestehender Doppelstrukturen und plädiert für eine stärkere Integration der Lehramtsausbildung an den Universitäten statt einer weiteren Verselbstständigung der PHs.
- Besonders umstritten ist die im Koalitionsvertrag vorgesehene Prüfung eines Promotionsmodells für Fachhochschulen. Die Universitäten lehnen dies strikt ab, da sie befürchten, dass dadurch die Qualität wissenschaftlicher Standards gefährdet wird und eine unnötige Parallelstruktur entsteht.
- Ein weiteres Thema ist die zukünftige Handhabung von Zugangsbeschränkungen. Die Regierung plant eine Grundsatzrevision der bestehenden Regelungen, ohne jedoch klare Details zu nennen. Die Uniko spricht sich für eine Beibehaltung und mögliche Ausweitung der Zugangsbeschränkungen aus, da diese sich laut der Vorsitzenden der UniKo bewährt hätten.
- Ivo By