Schoch, Tobias

Lade...
Profilbild
E-Mail-Adresse
Geburtsdatum
Projekt
Organisationseinheiten
Berufsbeschreibung
Nachname
Schoch
Vorname
Tobias
Name
Schoch, Tobias

Suchergebnisse

Gerade angezeigt 1 - 5 von 5
  • Publikation
    Evaluation der Datengrundlagen und der Datenaufbereitung für das Kostenmodell KOREG
    (Fachhochschule Nordwestschweiz FHNW, 29.09.2023) Schoch, Tobias; Hulliger, Beat; Spasova, Tsvetana; Thees, Oscar
    Der Prüfbericht des Bundesamts für Gesundheit (BAG) zur Tarifstruktur TARDOC 1.0 und 1.1 hat kritische Punkte und Empfehlungen betreffend das Kostenmodell KOREG und die Erhebungsinstrumente Rollende Kostenstudie (RoKo, Ärztekasse) und Spartenbetriebsdauern (NAKO, NewIndex AG) ausgesprochen. Der vorliegende Bericht greift die kritischen Punkte und Empfehlungen auf und diskutiert diese aus einer methodisch/statistischen Perspektive. Die Kritikpunkte und Anmerkungen aus dem Prüfbericht lassen sich in zwei Gruppen aufteilen: (1) Forderung nach Herstellung vollständiger Transparenz; (2) Untersuchungen zu Repräsentativität (inkl. möglicher Verzerrungen infolge präfenzieller Nonresponse und selbst deklarierter Angaben). Der Forderung nach Herstellung von Transparenz kommt der vorliegende Bericht nach, indem er die Datenbearbeitung zur RoKo und NAKO reproduziert, untersucht und bewertet. Die Untersuchung zur "Repräsentativität" orientiert sich an einem Quality Framework zum Total Survey Error. Dieses Quality Framework ist in der Forschung zur Stichprobentheorie weit verbreitet und Teil des European Statistical Systems, dem auch die amtliche Statistik in der Schweiz untersteht. Das Framework stellt die Fitness-for-Use in den Vordergrund, um zu beurteilen, ob ein Schätzer oder eine Statistik sich in einem bestimmten Kontext für statistische Inferenz eignet. Die Beurteilung der Eignung ist kriterienbasiert. Die Orientierung an einem Quality Framework drängt sich auf, weil der Begriff der «Repräsentativität» --entgegen einer weitverbreiteten Meinung – kein Begriff aus der Stichprobentheorie darstellt und dessen Verwendung, legt man wissenschaftliche Kriterien zugrunde, ungenau und unnötig ist. RoKo und NAKO dienen – im Kontext der Einführung des TARDOC – als Erhebungsinstrumente, um Kenngrössen zu schätzen, die anschliessend für die Parametrisierung des Kostenmodells KOREG verwendet werden. Das Konzept der Fitness-for-Use wird im vorliegenden Kontext angewendet, um zu beurteilen, ob die geschätzten Mittelwerte zu den relevanten Variablen einen möglichst kleinen Mean Square Error (bezgl. des Total Survey Errors) besitzen. Das heisst, ob die Schätzer möglichst unverzerrt und effizient sind. Die Erhebungsinstrumente RoKo und NAKO sind, bezogen auf das Quality Framework (Total Survey Error), jeweils für sich genommen von ausreichender Qualität (für den angestrebten Zweck). Die Unterschiede zwischen den Instrumenten sind angesichts der Komplexität der zu erfassenden Phänomene gering. Beide Instrumente zielen im Wesentlichen auf die gleiche Grundgesamtheit ab und führen zu relativ geringen Abweichungen bei den Schlüsselindikatoren. Damit ist auch die Kombination der beiden Instrumente ein hinreichend valides Instrument. Verbesserungsmöglichkeiten bestehen immer. Die Antwortrate der Kantone ohne Teilnahmepflicht könnte durch eine Pflicht verbessert werden. Durch die Beteiligung der Zentralschweizer Kantone und des Kantons JU, die nicht an der RoKo partizipieren, könnte die schweizweite Abdeckung verbessert werden.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    Gutachten zur Eignung der Rollenden Kostenstudie für die Taxpunktwertberechnung im Kanton Wallis
    (Hochschule für Wirtschaft FHNW, 18.07.2023) Schoch, Tobias; Hulliger, Beat; Thees, Oscar
    Das Gutachten befasst sich mit dem Urteil C-7338/2018 des Bundesverwaltungsgerichts, das sich zur "Repräsentativität" der Rollenden Kostenstudie im Kanton Wallis äussert. Im vorliegenden Gutachten wird dargelegt, dass "Repräsentativität" und "repräsentative Stichprobe" keine Begriffe der Statistik sind und daher keine sinnvoll quantifizierbare Eigenschaft einer Stichprobe darstellen. Stattdessen sollte der Fokus darauf liegen, ob die Schätzungen auf die Grundgesamtheit verallgemeinerbar sind (d.h. externe Validität besitzen) und ob die Charakteristika oder Parameter der Grundgesamtheit möglichst unverzerrt und effizient geschätzt werden können. Dies wird empirisch für die Rollende Kostenstudie im Kanton Wallis anhand einer Kalibrierung diskutiert.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    wbacon: weighted BACON algorithms for multivariate outlier nomination (detection) and robust linear regression
    (Open Journals, 2021) Schoch, Tobias [in: The Journal of Open Source Software]
    Outlier nomination (detection) and robust regression are computationally hard problems. This is all the more true when the number of variables and observations grow rapidly. Among all candidate methods, the two BACON (blocked adaptive computationally efficient outlier nominators) algorithms of Billor et al.(2000) have favorable computational characteristics as they require only a few model evaluations irrespective of the sample size. This makes them popular algorithms for multivariate outlier nomination/detection and robust linear regression (at the time of writing Google Scholar reports more than 500 citations of the Billor et al.(2000) paper). wbacon is a package for the R statistical software (R Core Team, 2021). It is aimed at medium to large data sets that can possibly have (sampling) weights (e.g., data from complex survey samples). The package has a user-friendly Rinterface (with plotting methods, etc.) and is written mainly in the C language (with OpenMP support for parallelization; see OpenMP Architecture Review Board(2018)) for performance reasons.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    On the strong law of large numbers for nonnegative random variables. With an application in survey sampling
    (Austrian Statistical Society, 2021) Schoch, Tobias [in: Austrian Journal of Statistics]
    Strong laws of large numbers with arbitrary norming sequences for nonnegative not necessarily independent random variables are obtained. From these results we establish, among other things, stability results for weighted sums of nonnegative random variables. A survey sampling application is provided on strong consistency of the Horvitz-Thompson estimator and the ratio estimator.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Treatment of sample under-representation and skewed heavy-tailed distributions in survey-based microsimulation: An analysis of redistribution effects in compulsory health care insurance in Switzerland
    (Springer, 2020) Schoch, Tobias; Müller, André [in: AStA Wirtschafts- und Sozialstatistisches Archiv]
    The credibility of microsimulation modeling with the research community and policymakers depends on high-quality baseline surveys. Quality problems with the baseline survey tend to impair the quality of microsimulation built on top of the survey data. We address two potential issues that both relate to skewed and heavy-tailed distributions. First, we find that ultra-high-income households are under-represented in the baseline household survey. Moreover, the sample estimate of average income underestimates the known population average. Although the Deville-Särndal calibration method corrects the under-representation, it cannot achieve alignment of estimated average income in the right tail of the distribution with known population values without distorting the empirical income distribution. To overcome the problem, we introduce a Pareto tail model. With the help of the tail model, we can adjust the sample income distribution in the tail to meet the alignment targets. Our method can be a useful tool for microsimulation modelers working with survey income data. The second contribution refers to the treatment of an outlier-prone variable that has been added to the survey by record linkage (our empirical example is health care cost). The nature of the baseline survey is not affected by record linkage, that is, the baseline survey still covers only a small part of the population. Hence, the sampling weights are relatively large. An outlying observation together with a high sampling weight can heavily influence or even ruin an estimate of a population characteristic. Thus, we argue that it is beneficial – in terms of mean square error – to use robust estimation and alignment methods, because robust methods are less affected by the presence of outliers.
    01A - Beitrag in wissenschaftlicher Zeitschrift