Direkt zum Inhalt

Effizienzanalysemethoden in der Regulierung deutscher Elektrizitäts- und Gasversorgungsunternehmen

DIW Roundup 40, 7 S.

Stefan Seifert

2014

get_appDownload (PDF  369 KB)

16.10.2014, Stefan Seifert, sseifert@diw.de

Mehr als 1600 Verteilnetzbetreiber versorgen deutsche Haushalte mit Strom und Gas. Dabei handelt es sich um „natürliche Monopole“, d.h. es gibt keinen direkten Wettbewerb zwischen den Unternehmen, sondern werden sie durch die Bundesnetzagentur im Anreizregulierungsverfahren reguliert. Herzstück dieses Regulierungsverfahren ist ein Benchmarking beruhend auf der Data Envelopment (DEA) Analysis und der Stochastic Frontier Analysis (SFA). In der wissenschaftlichen Literatur werden Stärken und Schwächen dieser Schätzverfahren diskutiert. Insbesondere jüngere methodische Fortschritte könnten das Benchmarking im Anreizregulierungsverfahren in Zukunft beeinflussen.

Die Landschaft deutscher Strom- und Gasverteilunternehmen ist geprägt von starker Fragmentierung und mehr als 1600 Strom- und Gasverteilnetzbetreiber versorgen deutsche Haushalte mit Elektrizität und Gas. Insbesondere auf Grund der hohen Infrastrukturkosten (Fixkosten) agieren diese Unternehmen – wie auch die meisten anderen netzgebundenen Industrien – in regionalen natürlichen Monopolen. Diese haben die besondere Eigenschaft, dass der Markteintritt zusätzlicher Unternehmen nicht lohnenswert ist, da es zu einer Doppelung der hohen Infrastruktur­investitionen kommen würde. Aus ökonomischer Sicht ist eine Regulierung solcher Monopole notwendig, um auf der Nachfrageseite überhöhte Preise und auf der Angebotsseite Überrenditen (Monopolrenten) zu verhindern, und so Wohlfahrtgewinne zu ermöglichen. Seit 2009 werden die deutsche Strom- und Gasverteilunternehmen durch das sogenannte Anreizregulierungsverfahren (Anreizregulierungsverordnung, AregV), reguliert, welches die bis dahin gültige Kostenzuschlagsregulierung ersetzte. Herzstück der deutschen Anreizregulierung ist ein Effizienzanalysemodell, welches verwendet wird, um Erlösobergrenzen für eine Regulierungsperiode von 5 Jahren für Strom- bzw. 4 Jahren Gasverteilunternehmen festzulegen. Im Folgenden wird dieses Verfahren kurz zusammengefasst und vor dem Hintergrund aktueller wissenschaftlicher Erkenntnisse diskutiert.

Effizienzanalyse in deutscher regulatorischer Praxis

Die Idee der Anreizregulierung geht zurück auf die Arbeiten von Shleifer (1985), Littlechild, (1983), Baumol (1982) und Finsinger und Vogelsang (1981). Der zu Grunde liegende Ansatz dieses „yardstick competition“ genannten Mechanismus ist es, Unternehmen, die auf Grund mangelnden Wettbewerbes – also auch auf Grund des Vorliegens eines natürlichen Monopols – in einem fiktiven Wettbewerb zu vergleichen. Dabei sollen die Besten der Branche als Vorbild für andere Unternehmen herangezogen werden und Maßstäbe in Form von Kosten- und Produktionseffizienz setzen. In Deutschland erfolgt die Regulierung durch eine temporäre Entkopplung von Erlösen und Kosten der Unternehmen. Während der Regulator für eine Regulierungsperiode die Erlöse des regulierten Unternehmens auf Basis eines unternehmensspezifischen Effizienzwertes sowie eines sektoralen Produktivitätsfaktors begrenzt, hat das regulierte Unternehmen in dieser Zeit einen Anreiz höhere Gewinne durch Kostenreduktion zu realisieren. Dabei wird die Erlösobergrenze durch den unternehmensspezifischen Effizienzwert unter anderem an die Kosten der Vorperioden sowie die niedrigsten Kosten eines vergleichbaren Unternehmens gebunden.

In der deutschen Regulierung erfolgt die Bestimmung des Effizienzwertes über eine Schätzung einer Kostenfunktion. Dabei wird eine Funktion geschätzt, die für gegebenen Output und bei gegeben Umweltbedingungen die minimal erzielbaren Kosten darstellt („best practice Frontier“). Für jedes Unternehmen wird nun ein Effizienzwert aus der Differenz der tatsächlichen Kosten und den minimalen Kosten berechnet. Ein Effizienzwert von z.B. 75 Prozent spiegelt also eine mögliche Kosteneinsparung von 25 Prozent wieder. Zur Ermittlung dieser Kostenfunktion werden die Gesamtkosten des Unternehmens (reduziert um langfristig nicht-beeinflussbare Kosten, §11 AregV) durch insgesamt 11 (Strom) bzw. 10 (Gas) Kostentreiber (Outputs) und Strukturvariablen erklärt. Der Kapitalkostenanteil der Gesamtkosten wird dabei einmal durch tatsächliche Kapitalkosten und einmal durch standardisierte Kapitalkosten ermittelt, sodass sich zwei verschiedene Gesamtkostenmodelle ergeben. Des Weiteren erfolgt die Schätzung der Kostenfunktion mittels zwei verschiedener Methoden, nicht-parameterischer Data Envelopment Analysis (DEA) sowie parametrischer Stochastic Frontier Analysis (SFA), sodass insgesamt vier Effizienzwerte für jedes Unternehmen ermittelt werden. Der höchste dieser vier Werte wird für die Berechnung der Erlösobergrenze verwendet. Im Falle der Unterschreitung der 60% Effizienzgrenze wird dieser Wert zudem mit 60% ersetzt. Dieser „Best-of-Four“ Ansatz mit Mindesteffizienz stellt sicher, dass Erlösobergrenzen auf Basis realistischer Effizienzsteigerung festgelegt werden. Stromverteilunternehmen mit weniger als 30.000 sowie Gasverteil­unternehmen mit weniger als 15.000 angeschlossenen Kunden können zudem ein vereinfachtes Verfahren beantragen, in welchem ihnen der durchschnittliche Effizienzwert der vorherigen Regulierungsperiode zugewiesen wird.

Regulatorisches Benchmarking mit DEA und SFA

Die zur Effizienzwertermittlung verwendeten Verfahren DEA und SFA sind die gängigen Methoden im wissenschaftlichen und regulatorischen Benchmarking und werden analog unter anderem im Wassersektor verwendet (vgl. Zschille, 2013; Hirschhausen et al., 2009). Beide Methoden unterscheiden sich deutlich in ihren Ansätzen und den zu Grunde liegenden Annahmen. Im Folgenden werden beide Ansätze kurz dargestellt und anschließend in der Literatur diskutierte Schwächen vorgestellt.

Die DEA ist ein nicht-parametrisches deterministisches Verfahren, welches versucht zur Schätzung eine Produktions- oder Kostenfunktion gegebene Datenpunkte mittels stückweise linearer Funktionen möglichst eng zu umhüllen und so eine „best-practice Frontier“ zu ermitteln. Der Abstand eines jeden Unternehmens zur geschätzten Frontier wird anschließend als Ineffizienz interpretiert. Die DEA beruht dabei auf nur einer geringen Anzahl von Annahmen und erfolgt ohne vorherige Spezifikation einer funktionalen Form. Im Gegensatz dazu versucht die SFA als parametrisches und stochastisches Verfahren die Frontier, also die minimal erzielbaren Kosten, auf Basis einer funktionalen Form zu schätzen. Dafür werden zusätzliche Verteilungsannahmen für einen Fehlerterm und einen Ineffizienzterm getroffen. Für eine gegebene Beobachtung wird auf Basis dieser Annahmen der Abstand einer jeder Beobachtung in einen Ineffizienzterm und einen Schätzfehler zerlegt. Infolgedessen umhüllt die SFA Frontier im Gegensatz zur DEA Frontier nicht zwangsläufig alle Beobachtungen (vgl. Abbildung 1).

Abbildung 1: Beispiel Darstellung der SFA und DEA im 1 Input - 1 Output Fall für simulierte Daten von 150 Unternehmen. (Quelle: Eigene Darstellung)

Der in der wissenschaftlichen Literatur hauptsächlich diskutierte Kritikpunkt an der „Standard DEA“ ist es, nicht oder nur unzureichend für Umweltfaktoren kontrollieren zu können. Dies kann dazu führen, dass Unternehmen miteinander verglichen werden, die unter unterschiedlichen Umweltbedingungen arbeiten, was eine der Grundannahmen der DEA verletzt (Dyson et al., 2001). Um dem entgegen zu wirken werden im deutschen regulatorischen Benchmarking Strukturparameter wie Outputparameter berücksichtigt. Als ein weiteres Problem wird gesehen, dass eine von fehlerhaften Beobachtungen befreite DEA generell zur Überschätzung der wahren Effizienz tendiert, da die Schätzung der Kostenfunktion als engstmögliche Umhüllung der Daten erfolgt (Simar und Wilson, 1998). Da die Genauigkeit der Effizienzschätzung nur sehr langsam mit der Größe des Datensatzes und umgekehrt proportional zur Anzahl der evaluierten Input und Outputfaktoren steigt, kann dies insbesondere bei kleineren Datensätze zu einer generellen Verzerrung der Effizienzwerte führen (vgl. Daraio und Simar, 2007). Dies führt auch dazu, dass mit steigender Anzahl an Input- und Outputvariablen die gemessene Effizienz steigt („Curse of Dimensionality“, vgl. Bogetoft und Otto, 2011) und somit die Anzahl der in der Regulierungspraxis einbezogenen Variablen limitiert ist. Eine weitere Herausforderung der DEA ist ihre Anfälligkeit gegenüber Daten- und Messfehlern, da ein einziger fehlerhafter Datenpunkt zu Verzerrungen in allen ermittelten Effizienzwerten führen kann. Diesem Problem kann jedoch durch klare Vorgaben in der Datenermittlung sowie konsequente Plausibilitätsprüfung der Daten entgegengewirkt werden. Im deutschen regulatorischen Benchmarking werden die Daten mittels Supereffizienzanalyse und Cooks Distance daher systematisch nach Ausreißern und Datenfehlern untersucht (vgl. Agrell et al., 2014).

Auch bei der SFA werden in der Literatur verschiedene Punkte kritisiert. So muss für die Schätzung einer Kostenfunktion mittels SFA eine funktionale Form (z.B. Cobb-Douglas oder Translog Spezifikation) des Zusammenhangs von Kosten und Output spezifiziert werden, während der wahre Zusammenhang unbekannt ist. Darüber hinaus hängen die geschätzten Effizienzwerte von einer zuvor spezifizierten Annahme über die Verteilung der Ineffizienz ab. Problematisch sind dabei insbesondere zwei Punkte: zum einen sind die Schätzergebnisse verfälscht, wenn die wahre Verteilung der Ineffizienz eine andere ist (Bogetoft und Otto, 2012). Zum anderen ist der Effizienzschätzer für eine Beobachtung, der sogenannte JMLS-Schätzer, inkonsistent, wird also auch mit zunehmender Anzahl an Beobachtungen im Schätzverfahren nicht genauer (vgl. Kuosmanen, 2012). Insbesondere die in der deutschen Regulierung getroffenen Annahme der exponentiell verteilten Ineffizienz ist als restriktiv zu sehen (vgl. Agrell et al., 2014), da diese Verteilung lediglich durch einen Parameter charakterisiert wird (im Gegensatz zu zwei Parametern der üblichen Halbnormalverteilung) und selbst ein Sonderfall der trunkierten Normalverteilung ist, welche ebenfalls durch zwei Parameter charakterisiert wird Meesters, 2014). Des Weiteren weisen neuere Forschungsergebnisse darauf hin, dass bei ungünstigem Fehlerterm-Ineffizienz-Verhältnis – insbesondere bei vergleichsweise starkem „weissem Rauschen“ im Verhältnis zu Ineffizienz – Punktschätzung und Rangfolge der Effizienzschätzung stark beeinflusst und verfälscht werden können (Badunenko et al., 2011). Zusammenfassend kann gesagt werden, dass die Genauigkeit der Ergebnisse der SFA stark von Richtigkeit zuvor getroffener Annahmen abhängt.

Neuere Ansätze – Besser Ansätze?

In den letzten Jahren wurden verschiedene neue Ansätze präsentiert, die die Schwachpunkte der DEA und der SFA reduzieren sollten. So wurde bezüglich der Anfälligkeit der DEA gegenüber Daten- und Messfehlern ein neuerer Ansatz von De Witte und Marques (2010) vorgestellt, welcher verschiedene klassische Ausreißereliminationsverfahren kombiniert und so das Risiko der fälschlichen Elimination (Entfernung einer Beobachtung als Ausreißer, obwohl kein Fehler vorliegt) reduziert. Andere Ansätze versuchen durch Hinzufügen einer stochastischen Komponente zur DEA die Schätzung der Frontier robuster gegen Ausreißer zu formulieren (z.B. Simar und Zelenhyuk, 2011). Auch dem Dimensionalitätsproblem der DEA wurde durch verschiedene Ansätze versucht entgegenzuwirken. Adler und Golany (2002) schlugen vor, verschiedene Output­vektoren durch Hauptkomponentenanalyse zusammenzufassen und durch einen Indikator auszudrücken. Im Gegensatz dazu versucht der Ansatz von Jenkins und Andersen (2003) die Anzahl der zu berücksichtigten Variablen mittels einer partiellen Kovarianzanalyse um einzelne Outputvektoren zu eliminieren. Ein dritter Ansatz wurde von Simar und Wilson (2001), Schubert und Simar (2012) sowie Neumann, Nieswand und Schubert (2013) vorgeschlagen. Dabei wird mittels statistischer Tests ermittelt, ob Outputvektoren gestrichen oder zusammengefasst werden können.

Neuere Forschungsergebnisse könnten zudem die bisher verwendeten DEA und SFA Ansätze im Hinblick auf die Berücksichtigung von Umweltvariablen verbessern. Für die nichtparametrische DEA wurde dabei insbesondere die konditionale DEA vorgestellt (Daraio und Simar, 2005), für die SFA entwickelten sich unter anderem einstufige Latent Class Verfahren (Orea and Kumbhakar, 2004; Greene, 2005b; Cullmann, 2012). All diese Ansätze versuchen sicherzustellen, dass Unternehmen lediglich mit anderen Unternehmen verglichen werden, die unter ähnlichen Umweltbedingungen agieren, jedoch unterscheiden sich die Ansätze in ihrer Ausgestaltung. So wird in der konditionalen DEA Effizienz für jedes Unternehmen einzeln nur im Vergleich zu anderen Einheiten mit ähnlichen Umweltvariablen ermittelt – so dass jedes Unternehmen seine eigene Vergleichsgruppe bekommt. Im Gegensatz dazu versuchen die Latent Class Ansätze die Einheiten einer vorher zu spezifizierende Anzahl an Gruppen mit gleichen Umweltvariablen zuzuordnen, in welchen anschließend separat Effizienz ermittelt wird. Latent Class und konditionale DEA stellen somit deutliche methodische Verbesserungen gegenüber den klassischen Ansätzen dar, sind jedoch auch methodisch komplexer.

Ein weiterer vielversprechender Ansatz wurde von Kuosmanen und Kortelainen (2012) vorgestellt und wird seit 2012 vom Finnischen Elektrizitätsmarktregulierer EMV für die Regulierung der Stromverteilunternehmen verwendet. Der StoNED (Stochastic non-smooth envelopment of data) genannte semi-parametrische Ansatz versucht, die Stärken von DEA und SFA miteinander zu verbinden: Zum einen wird die Form der zu schätzenden Funktion nicht-parametrisch ermittelt, es entfällt also die Annahme eine funktionalen Spezifikation, ähnlich zu DEA. Gleichzeitig berücksichtigt dieser neuartige Ansatz einen Fehlerterm („weisses Rauschen“) und eine Ineffizienzkomponente beruhend auf Verteilungsannahmen der beiden Komponenten, ähnlich zur SFA. Das Problem der Dimensionalität ähnlich der DEA, sowie die Abhängigkeit der Genauigkeit der Schätzergebnisse von den zuvor getroffenen Verteilungsannahmen bleiben jedoch vorhanden. Eine Stärke des Ansatzes ist, dass Umweltvariablen recht einfach berücksichtigt werden können (Johnson und Kuosmanen, 2011), ohne die Dimensionsproblematik weiter zu verschärfen. Obwohl bisher wenige Erfahrungen zu diesem neuartigen Schätzer gewonnen werden konnte, weisen erste wissenschaftliche Arbeiten auf gute Ergebnisse bei simulierten Datensätzen hin (z.B. Andor und Hesse, 2013).

Fazit

Die deutsche Anreizregulierung steht vor schwierigen Aufgaben: Auf der einen Seite müssen lokale Monopole streng reguliert werden, um Monopolpreise zu verhindern und Kunden zu schützen; auf der anderen Seite muss das System Anreize zur Unternehmensweiterführung sowie zukünftige Investitionen erhalten. Das Benchmarking spielt als Herzstück des Anreizregulierungsverfahrens dabei eine besondere Rolle und muss konsistent Ineffizienzen aufdecken, die den Unternehmen zuzuschreiben sind und abgebaut werden können. In der wissenschaftlichen Literatur werden verschiedene Stärken und Schwächen der beiden Benchmarkingmethoden DEA und SFA diskutiert, welche sich auf den Effizienzwert und somit die Erlösobergrenze der regulierten Unternehmen niederschlagen können. Neuere wissenschaftliche Erkenntnisse und Methoden liefern vielseitig Ansatzpunkte zur Verbesserung und Erneuerung des bestehenden regulatorischen Benchmarkings, sind jedoch häufig methodisch anspruchsvoll und würden somit auch die regulierten Unternehmen durch eine komplexere Regulierungspraxis herausfordern.

Quellen

Adler, N. und B. Golany (2002): Including principal component weights to improve discrimination in data envelopment analysis. Journal of the Operational Research Society, 53 (9), 985-991.
www.palgrave-journals.com/jors/journal/v53/n9/index.html

Agrell, P., P. Bogetoft, M. Koller und U. Trinkner (2014): Effizienzvergleich für Verteilnetzbetreiber Strom 2013 - Ergebnisdokumentation und Schlussbericht. Bericht im Auftrag der Bundesnetzagentur durch swiss economics / SUMICSID
http://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Sachgebiete/Energie/Unternehmen_Institutionen/Netzentgelte/Strom/EffiziensvergleichVerteilernetzbetreiber/2Regulierungsperiode/Gutachten_EVS2_geschw.pdf?__blob=publicationFile&v=2

Andor, M. und F. Hesse (2014): The StoNED age: the departure into a new era of efficiency analysis? A monte carlo comparison of StoNED and the "oldies" (SFA and DEA). Journal of Productivity Analysis, 41 (1), 85-109.
http://link.springer.com/article/10.1007/s11123-013-0354-y

Badunenko, O., D.J. Henderson und S.C. Kumbhakar (2012): When, where and how to perform efficiency estimation. Journal of the Royal Statistical Society: Series A (Statistics in Society), 175 (4), 863-892.
http://onlinelibrary.wiley.com/doi/10.1111/j.1467-985X.2011.01023.x/abstract;jsessionid=66A3719E136B6CC9EF0337BF6E5980AD.f03t01

Baumol, William J (1982): Contestable Markets: An Uprising in the Theory of Industry Structure. American Economic Review, 72 (1), 1-15.

Bogetoft, P. und L. Otto (2011): Benchmarking with DEA, SFA, and R. Springer.

Cullmann, A. (2012): Benchmarking and firm heterogeneity: a latent class analysis for German electricity distribution companies. Empirical Economics, 41 (1), 149-169.
http://link.springer.com/article/10.1007/s00181-010-0413-4

De Witte, K. und R. Marques (2010): Influential observations in frontier models, a robust nonoriented approach to the water sector. Annals of Operations Research, 181 (1), 377-392.
http://link.springer.com/article/10.1007/s10479-010-0754-6

Daraio, C. und L. Simar (2005): Introducing Environmental Variables in Nonparametric Frontier Models: a Probabilistic Approach. The Journal of Productivity Analysis, 24 (1), 93-121.
http://link.springer.com/article/10.1007%2Fs11123-005-3042-8

Daraio C. und L. Simar (2007): Advanced Robust and Nonparametric Methods in Efficiency Analysis. Methodology and Applications, Springer, New York (USA).

Dyson, R.G., R. Allena, A.S. Camanhob, V.V. Podinovskia, C.S. Sarricoa und E.A. Shalea (2001): Pitfalls and protocols in DEA. European Journal of Operational Research, 132 (2), 245-259.
http://www.sciencedirect.com/science/article/pii/S0377221700001491

Finsinger, J. und I. Vogelsang (1981): Alternative Institutional Frameworks for Price Incentive Mechanism. Kyklos, 34 (3), 388-404.

Greene, W. H. (2005): Reconsidering heterogeneity in panel data estimators of the stochastic frontier model. Journal of Econometrics, 126 (2), 269-303.
http://www.sciencedirect.com/science/article/pii/S0304407604001137

Kuosmanen, T. (2012): Stochastic semi-nonparametric frontier estimation of electricity distribution networks: Application of the StoNED method in the Finnish regulatory model. Energy Policy, 34 (6), 2189-2199.
http://www.sciencedirect.com/science/article/pii/S0140988312000497

Kuosmanen, T. und M. Kortelainen (2012): Stochastic non-smooth envelopment of data: Semi-parametric frontier estimation subject to shape constraints. Journal of Productivity Analysis 38 (1), 11-28.
http://link.springer.com/article/10.1007/s11123-010-0201-3

Hirschausen, C., Walter, M. und M. Zschille (2009): Effizienzanalyse in der Wasserversorgung Internationale Erfahrungen und Schlussfolgerungen für Deutschland. gwf - Wasser|Abwasser, 150 (02-03), 170-175.
https://www.di-verlag.de/de/Zeitschriften/gwf-Wasser-Abwasser/2009/02-03/Effizienzanalyse-in-der-Wasserversorgung

Jenkins L. und M. Anderson (2003): Multivariate statistical approach to reducing the number of variables in data envelopment analysis. European Journal of Operational Research, 147, 51-61.
http://www.sciencedirect.com/science/article/pii/S0377221702002436

Johnson, A.L. und T. Kuosmanen (2011): One-stage estimation of the effects of operational conditions and practices on productive performance: Asymptotically normal and efficient, root-n consistent StoNEZD method. Journal of Productivity Analysis, 36 (2), 219-230.
http://link.springer.com/article/10.1007%2Fs11123-011-0231-5#page-1

Littlechild, S. (1983): The Regulation of British Telecommunications Profitability. Department of Industry. Reprinted in Bartle, I., The UK Model of Utility Regulations, CRI Proceedings 31, University of Bath.

Meesters, A. (2014): A note on the assumed distributions in stochastic frontier models. Journal of Productivity Analysis, 42 (2), 171-173.
http://link.springer.com/article/10.1007/s11123-014-0387-x

Neumann, A., M. Nieswand und T. Schubert (2013): Estimating Alternative Technology Sets in Nonparametric Efficiency Analysis: Restriction Tests for Panel and Clustered Data. EUI Working Paper, Robert Schuman Centre for Advanced Studies RSCAS 2013/13 and DIW Discussion Paper 1283.
http://www.diw.de/documents/publikationen/73/diw_01.c.417826.de/dp1283.pdf

Orea, L. und S.C. Kumbhakar (2004): Efficiency measurement using a latent class stochastic frontier model. Empirical Economics, 29 (1), 169-183.
http://link.springer.com/article/10.1007%2Fs00181-003-0184-2

Schubert, T. und L. Simar (2011): Innovation and export activities in the German mechanical engineering sector: An application of testing restrictions in production analysis. Journal of Productivity Analysis, 36 (1), 55-69.
http://link.springer.com/article/10.1007%2Fs11123-010-0199-6

Shleifer, A. (1985): A Theory of Yardstick Competition. The RAND Journal of Economics, 16 (3), 319-327.
http://scholar.harvard.edu/files/shleifer/files/theory_yardstick_comp.pdf

Simar, L. und P.W. Wilson (2001): Testing restrictions in nonparametric efficiency models. Communications in Statistics: Simulation and Computation, 30 (1), 159 - 184.
http://www.clemson.edu/economics/faculty/wilson/courses/bcn/papers/TESTING_RESTRICTIONS.pdf

Simar, L. und P.W. Wilson (1998): Sensitivity Analysis of Efficiency Scores: How to Bootstrap in Nonparametric Frontier Models. Management Science, 44 (1), 49-61.
http://www.jstor.org/stable/2634426

Simar, L. und V. Zelenyuk (2011): Stochastic FDH/DEA estimators for frontier analysis. Journal of Productivity Analysis, 36 (1), 1-20.
http://link.springer.com/article/10.1007%2Fs11123-010-0170-6

Zschille, M. (2013): Nonparametric Measures of Returns to Scale: An Application to German Water Supply. Empirical Economics, im Ersch.
http://link.springer.com/article/10.1007%2Fs00181-013-0775-5


Frei zugängliche Version: (econstor)
http://hdl.handle.net/10419/111820

keyboard_arrow_up