Schoch, Tobias

Lade...
Profilbild
E-Mail-Adresse
Geburtsdatum
Projekt
Organisationseinheiten
Berufsbeschreibung
Nachname
Schoch
Vorname
Tobias
Name
Schoch, Tobias

Suchergebnisse

Gerade angezeigt 1 - 10 von 55
  • Publikation
    Evaluation der Datengrundlagen und der Datenaufbereitung für das Kostenmodell KOREG
    (Fachhochschule Nordwestschweiz FHNW, 29.09.2023) Schoch, Tobias; Hulliger, Beat; Spasova, Tsvetana; Thees, Oscar
    Der Prüfbericht des Bundesamts für Gesundheit (BAG) zur Tarifstruktur TARDOC 1.0 und 1.1 hat kritische Punkte und Empfehlungen betreffend das Kostenmodell KOREG und die Erhebungsinstrumente Rollende Kostenstudie (RoKo, Ärztekasse) und Spartenbetriebsdauern (NAKO, NewIndex AG) ausgesprochen. Der vorliegende Bericht greift die kritischen Punkte und Empfehlungen auf und diskutiert diese aus einer methodisch/statistischen Perspektive. Die Kritikpunkte und Anmerkungen aus dem Prüfbericht lassen sich in zwei Gruppen aufteilen: (1) Forderung nach Herstellung vollständiger Transparenz; (2) Untersuchungen zu Repräsentativität (inkl. möglicher Verzerrungen infolge präfenzieller Nonresponse und selbst deklarierter Angaben). Der Forderung nach Herstellung von Transparenz kommt der vorliegende Bericht nach, indem er die Datenbearbeitung zur RoKo und NAKO reproduziert, untersucht und bewertet. Die Untersuchung zur "Repräsentativität" orientiert sich an einem Quality Framework zum Total Survey Error. Dieses Quality Framework ist in der Forschung zur Stichprobentheorie weit verbreitet und Teil des European Statistical Systems, dem auch die amtliche Statistik in der Schweiz untersteht. Das Framework stellt die Fitness-for-Use in den Vordergrund, um zu beurteilen, ob ein Schätzer oder eine Statistik sich in einem bestimmten Kontext für statistische Inferenz eignet. Die Beurteilung der Eignung ist kriterienbasiert. Die Orientierung an einem Quality Framework drängt sich auf, weil der Begriff der «Repräsentativität» --entgegen einer weitverbreiteten Meinung – kein Begriff aus der Stichprobentheorie darstellt und dessen Verwendung, legt man wissenschaftliche Kriterien zugrunde, ungenau und unnötig ist. RoKo und NAKO dienen – im Kontext der Einführung des TARDOC – als Erhebungsinstrumente, um Kenngrössen zu schätzen, die anschliessend für die Parametrisierung des Kostenmodells KOREG verwendet werden. Das Konzept der Fitness-for-Use wird im vorliegenden Kontext angewendet, um zu beurteilen, ob die geschätzten Mittelwerte zu den relevanten Variablen einen möglichst kleinen Mean Square Error (bezgl. des Total Survey Errors) besitzen. Das heisst, ob die Schätzer möglichst unverzerrt und effizient sind. Die Erhebungsinstrumente RoKo und NAKO sind, bezogen auf das Quality Framework (Total Survey Error), jeweils für sich genommen von ausreichender Qualität (für den angestrebten Zweck). Die Unterschiede zwischen den Instrumenten sind angesichts der Komplexität der zu erfassenden Phänomene gering. Beide Instrumente zielen im Wesentlichen auf die gleiche Grundgesamtheit ab und führen zu relativ geringen Abweichungen bei den Schlüsselindikatoren. Damit ist auch die Kombination der beiden Instrumente ein hinreichend valides Instrument. Verbesserungsmöglichkeiten bestehen immer. Die Antwortrate der Kantone ohne Teilnahmepflicht könnte durch eine Pflicht verbessert werden. Durch die Beteiligung der Zentralschweizer Kantone und des Kantons JU, die nicht an der RoKo partizipieren, könnte die schweizweite Abdeckung verbessert werden.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    Gutachten zur Eignung der Rollenden Kostenstudie für die Taxpunktwertberechnung im Kanton Wallis
    (Hochschule für Wirtschaft FHNW, 18.07.2023) Schoch, Tobias; Hulliger, Beat; Thees, Oscar
    Das Gutachten befasst sich mit dem Urteil C-7338/2018 des Bundesverwaltungsgerichts, das sich zur "Repräsentativität" der Rollenden Kostenstudie im Kanton Wallis äussert. Im vorliegenden Gutachten wird dargelegt, dass "Repräsentativität" und "repräsentative Stichprobe" keine Begriffe der Statistik sind und daher keine sinnvoll quantifizierbare Eigenschaft einer Stichprobe darstellen. Stattdessen sollte der Fokus darauf liegen, ob die Schätzungen auf die Grundgesamtheit verallgemeinerbar sind (d.h. externe Validität besitzen) und ob die Charakteristika oder Parameter der Grundgesamtheit möglichst unverzerrt und effizient geschätzt werden können. Dies wird empirisch für die Rollende Kostenstudie im Kanton Wallis anhand einer Kalibrierung diskutiert.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    Überprüfung der Methodik im Schweizer Atlas der Gesundheitsversorgung
    (Institute for Competitiveness and Communication, Hochschule für Wirtschaft FHNW, 30.03.2023) Schoch, Tobias; Thees, Oscar
    Die Inanspruchnahme von Gesundheitsleistungen weist grosse regionale Unterschiede auf. Der Schweizer Versorgungsatlas (www.versorgungsatlas.ch) bildet seit dem Relaunch im April 2023 mit über 100 Indikatoren einen grossen Teil der medizinischen Versorgung und deren Inanspruchnahme ab. Die Indikatoren fokussieren auf die somatische Versorgung und umfassen sowohl stationäre als auch ambulante Behandlungen. Sie bilden die zentrale Grundlage, um geografische Muster bei der Inanspruchnahme von Leistungen der Gesundheitsversorgung zu erkennen und das Ausmass der regionalen Unterschiede zu quantifizieren. Mit dem Relaunch des Versorgungsatlas wurde auch die statistische Methodik überarbeitet. Der vorliegende Bericht befasst sich mit dieser Aufgabe und diskutiert statistische Methoden zur Berechnung von Raten und Kennzahlen zur Quantifizierung regionaler Variation im Kontext des Versorgungsatlas.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    robsurvey: robust survey statistics estimation
    (23.06.2022) Schoch, Tobias
    The robsurvey package provides robust estimation methods for data from complex sample surveys. The package implements the following methods: (1) basic outlier-robust location estimators of the population mean and total using weight reduction, trimming, winsorization, and M-estimation (robust Horvitz-Thompson and Hajek estimators); (2) robust survey regression M- and GM-estimators of the type Mallows and Schweppe; (3) robust model-assisted estimators of the population mean and total. A key design pattern of the package is that the methods are available in two flavors: bare-bone functions and survey methods. Bare-bone functions are stripped-down versions of the survey methods in terms of functionality. They may serve package developers as building blocks. The survey methods are much more capable and depend–for variance estimation–on the R package survey. The talk is organized into three parts: (1) Overview of the robust methods in robsurvey, including a comparison with other R packages (survey, robustbase, robeth, and MASS), Stata (robstat and rreg), SAS (robustreg), NAG and GNU Scientific Library. (2) Design patterns and possible extensions of the package. (3) Use cases and applications of the package.
    06 - Präsentation
  • Publikation
    wbacon: Weighted BACON algorithms for multivariate outlier nomination (detection) and robust linear regression
    (Institute for Competitiveness and Communication, Hochschule für Wirtschaft FHNW, 15.06.2021) Schoch, Tobias
    The BACON algorithms are methods for multivariate outlier nomination (detection) and robust linear regression by Billor, Hadi, and Velleman (2000, doi:10.1016/S0167-9473(99)00101-2). The extension to weighted problems is due to Beguin and Hulliger (2008, www150.statcan.gc.ca/n1/en/catalogue/12-001-X200800110616); see also Schoch (2021, doi:10.21105/joss.03238).
    09 - Software
  • Publikation
    On the strong law of large numbers for nonnegative random variables. With an application in survey sampling
    (Austrian Statistical Society, 2021) Schoch, Tobias [in: Austrian Journal of Statistics]
    Strong laws of large numbers with arbitrary norming sequences for nonnegative not necessarily independent random variables are obtained. From these results we establish, among other things, stability results for weighted sums of nonnegative random variables. A survey sampling application is provided on strong consistency of the Horvitz-Thompson estimator and the ratio estimator.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    wbacon: weighted BACON algorithms for multivariate outlier nomination (detection) and robust linear regression
    (Open Journals, 2021) Schoch, Tobias [in: The Journal of Open Source Software]
    Outlier nomination (detection) and robust regression are computationally hard problems. This is all the more true when the number of variables and observations grow rapidly. Among all candidate methods, the two BACON (blocked adaptive computationally efficient outlier nominators) algorithms of Billor et al.(2000) have favorable computational characteristics as they require only a few model evaluations irrespective of the sample size. This makes them popular algorithms for multivariate outlier nomination/detection and robust linear regression (at the time of writing Google Scholar reports more than 500 citations of the Billor et al.(2000) paper). wbacon is a package for the R statistical software (R Core Team, 2021). It is aimed at medium to large data sets that can possibly have (sampling) weights (e.g., data from complex survey samples). The package has a user-friendly Rinterface (with plotting methods, etc.) and is written mainly in the C language (with OpenMP support for parallelization; see OpenMP Architecture Review Board(2018)) for performance reasons.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Reform der beruflichen Vorsorge (BVG 21): Auswirkungen auf Beschäftigung, Löhne, Arbeitskosten und Umverteilung. Beiträge zur Sozialen Sicherheit 13/20
    (Bundesamt für Sozialversicherungen (BSV), 2020) Müller, André; Elbel, Roman; Marti, Michael; Strahm, Svenja; Schoch, Tobias
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    Treatment of sample under-representation and skewed heavy-tailed distributions in survey-based microsimulation: An analysis of redistribution effects in compulsory health care insurance in Switzerland
    (Springer, 2020) Schoch, Tobias; Müller, André [in: AStA Wirtschafts- und Sozialstatistisches Archiv]
    The credibility of microsimulation modeling with the research community and policymakers depends on high-quality baseline surveys. Quality problems with the baseline survey tend to impair the quality of microsimulation built on top of the survey data. We address two potential issues that both relate to skewed and heavy-tailed distributions. First, we find that ultra-high-income households are under-represented in the baseline household survey. Moreover, the sample estimate of average income underestimates the known population average. Although the Deville-Särndal calibration method corrects the under-representation, it cannot achieve alignment of estimated average income in the right tail of the distribution with known population values without distorting the empirical income distribution. To overcome the problem, we introduce a Pareto tail model. With the help of the tail model, we can adjust the sample income distribution in the tail to meet the alignment targets. Our method can be a useful tool for microsimulation modelers working with survey income data. The second contribution refers to the treatment of an outlier-prone variable that has been added to the survey by record linkage (our empirical example is health care cost). The nature of the baseline survey is not affected by record linkage, that is, the baseline survey still covers only a small part of the population. Hence, the sampling weights are relatively large. An outlying observation together with a high sampling weight can heavily influence or even ruin an estimate of a population characteristic. Thus, we argue that it is beneficial – in terms of mean square error – to use robust estimation and alignment methods, because robust methods are less affected by the presence of outliers.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Robuste Schätzer für das Fay-Herriot-Modell
    (2019) Schoch, Tobias
    Robuste Methoden für die Small-Area-Schätzung von Mittel- und Totalwerten sind seit einiger Zeit bekannt und werden erfolgreich in der Praxis eingesetzt. Eine Vielzahl von «robustifizierten» SAE-Schätzern ist aus ad-hoc-Überlegungen entstanden, was deren Tauglichkeit nicht schmälert. Für die Robustifizierung von Schätzern zum Fay-Herriot-Modell nehmen wir eine «theorie-nahe» Perspektive ein, was zu neuen Einsichten führt. Fay-Herriot (1979, J Amer Stat Assoc) haben das nach ihnen benannte Modell als Verallgemeinerung des James-Stein-Schätzers motiviert, wobei sie sich einen empirischen Bayes-Ansatz zunutze machten. Wir greifen diese Motivation des Problems auf und formulieren ein analoges robustes Bayes’sches Verfahren. Wählt man nun in der Bayes’schen Problemformulierung die ungünstigste Verteilung (eng. least favorable distribution) von Huber (1964, Ann Math Statist) als A-priori-Verteilung für die Lokationswerte der Small Areas, dann resultiert als Bayes-Schätzer [= Schätzer mit
    06 - Präsentation