Schoch, Tobias

Lade...
Profilbild
E-Mail-Adresse
Geburtsdatum
Projekt
Organisationseinheiten
Berufsbeschreibung
Nachname
Schoch
Vorname
Tobias
Name
Schoch, Tobias

Suchergebnisse

Gerade angezeigt 1 - 10 von 40
  • Publikation
    Evaluation der Datengrundlagen und der Datenaufbereitung für das Kostenmodell KOREG
    (Fachhochschule Nordwestschweiz FHNW, 29.09.2023) Schoch, Tobias; Hulliger, Beat; Spasova, Tsvetana; Thees, Oscar
    Der Prüfbericht des Bundesamts für Gesundheit (BAG) zur Tarifstruktur TARDOC 1.0 und 1.1 hat kritische Punkte und Empfehlungen betreffend das Kostenmodell KOREG und die Erhebungsinstrumente Rollende Kostenstudie (RoKo, Ärztekasse) und Spartenbetriebsdauern (NAKO, NewIndex AG) ausgesprochen. Der vorliegende Bericht greift die kritischen Punkte und Empfehlungen auf und diskutiert diese aus einer methodisch/statistischen Perspektive. Die Kritikpunkte und Anmerkungen aus dem Prüfbericht lassen sich in zwei Gruppen aufteilen: (1) Forderung nach Herstellung vollständiger Transparenz; (2) Untersuchungen zu Repräsentativität (inkl. möglicher Verzerrungen infolge präfenzieller Nonresponse und selbst deklarierter Angaben). Der Forderung nach Herstellung von Transparenz kommt der vorliegende Bericht nach, indem er die Datenbearbeitung zur RoKo und NAKO reproduziert, untersucht und bewertet. Die Untersuchung zur "Repräsentativität" orientiert sich an einem Quality Framework zum Total Survey Error. Dieses Quality Framework ist in der Forschung zur Stichprobentheorie weit verbreitet und Teil des European Statistical Systems, dem auch die amtliche Statistik in der Schweiz untersteht. Das Framework stellt die Fitness-for-Use in den Vordergrund, um zu beurteilen, ob ein Schätzer oder eine Statistik sich in einem bestimmten Kontext für statistische Inferenz eignet. Die Beurteilung der Eignung ist kriterienbasiert. Die Orientierung an einem Quality Framework drängt sich auf, weil der Begriff der «Repräsentativität» --entgegen einer weitverbreiteten Meinung – kein Begriff aus der Stichprobentheorie darstellt und dessen Verwendung, legt man wissenschaftliche Kriterien zugrunde, ungenau und unnötig ist. RoKo und NAKO dienen – im Kontext der Einführung des TARDOC – als Erhebungsinstrumente, um Kenngrössen zu schätzen, die anschliessend für die Parametrisierung des Kostenmodells KOREG verwendet werden. Das Konzept der Fitness-for-Use wird im vorliegenden Kontext angewendet, um zu beurteilen, ob die geschätzten Mittelwerte zu den relevanten Variablen einen möglichst kleinen Mean Square Error (bezgl. des Total Survey Errors) besitzen. Das heisst, ob die Schätzer möglichst unverzerrt und effizient sind. Die Erhebungsinstrumente RoKo und NAKO sind, bezogen auf das Quality Framework (Total Survey Error), jeweils für sich genommen von ausreichender Qualität (für den angestrebten Zweck). Die Unterschiede zwischen den Instrumenten sind angesichts der Komplexität der zu erfassenden Phänomene gering. Beide Instrumente zielen im Wesentlichen auf die gleiche Grundgesamtheit ab und führen zu relativ geringen Abweichungen bei den Schlüsselindikatoren. Damit ist auch die Kombination der beiden Instrumente ein hinreichend valides Instrument. Verbesserungsmöglichkeiten bestehen immer. Die Antwortrate der Kantone ohne Teilnahmepflicht könnte durch eine Pflicht verbessert werden. Durch die Beteiligung der Zentralschweizer Kantone und des Kantons JU, die nicht an der RoKo partizipieren, könnte die schweizweite Abdeckung verbessert werden.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    Gutachten zur Eignung der Rollenden Kostenstudie für die Taxpunktwertberechnung im Kanton Wallis
    (Hochschule für Wirtschaft FHNW, 18.07.2023) Schoch, Tobias; Hulliger, Beat; Thees, Oscar
    Das Gutachten befasst sich mit dem Urteil C-7338/2018 des Bundesverwaltungsgerichts, das sich zur "Repräsentativität" der Rollenden Kostenstudie im Kanton Wallis äussert. Im vorliegenden Gutachten wird dargelegt, dass "Repräsentativität" und "repräsentative Stichprobe" keine Begriffe der Statistik sind und daher keine sinnvoll quantifizierbare Eigenschaft einer Stichprobe darstellen. Stattdessen sollte der Fokus darauf liegen, ob die Schätzungen auf die Grundgesamtheit verallgemeinerbar sind (d.h. externe Validität besitzen) und ob die Charakteristika oder Parameter der Grundgesamtheit möglichst unverzerrt und effizient geschätzt werden können. Dies wird empirisch für die Rollende Kostenstudie im Kanton Wallis anhand einer Kalibrierung diskutiert.
    05 - Forschungs- oder Arbeitsbericht
  • Publikation
    robsurvey: robust survey statistics estimation
    (23.06.2022) Schoch, Tobias
    The robsurvey package provides robust estimation methods for data from complex sample surveys. The package implements the following methods: (1) basic outlier-robust location estimators of the population mean and total using weight reduction, trimming, winsorization, and M-estimation (robust Horvitz-Thompson and Hajek estimators); (2) robust survey regression M- and GM-estimators of the type Mallows and Schweppe; (3) robust model-assisted estimators of the population mean and total. A key design pattern of the package is that the methods are available in two flavors: bare-bone functions and survey methods. Bare-bone functions are stripped-down versions of the survey methods in terms of functionality. They may serve package developers as building blocks. The survey methods are much more capable and depend–for variance estimation–on the R package survey. The talk is organized into three parts: (1) Overview of the robust methods in robsurvey, including a comparison with other R packages (survey, robustbase, robeth, and MASS), Stata (robstat and rreg), SAS (robustreg), NAG and GNU Scientific Library. (2) Design patterns and possible extensions of the package. (3) Use cases and applications of the package.
    06 - Präsentation
  • Publikation
    On the strong law of large numbers for nonnegative random variables. With an application in survey sampling
    (Austrian Statistical Society, 2021) Schoch, Tobias [in: Austrian Journal of Statistics]
    Strong laws of large numbers with arbitrary norming sequences for nonnegative not necessarily independent random variables are obtained. From these results we establish, among other things, stability results for weighted sums of nonnegative random variables. A survey sampling application is provided on strong consistency of the Horvitz-Thompson estimator and the ratio estimator.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Robuste Schätzer für das Fay-Herriot-Modell
    (2019) Schoch, Tobias
    Robuste Methoden für die Small-Area-Schätzung von Mittel- und Totalwerten sind seit einiger Zeit bekannt und werden erfolgreich in der Praxis eingesetzt. Eine Vielzahl von «robustifizierten» SAE-Schätzern ist aus ad-hoc-Überlegungen entstanden, was deren Tauglichkeit nicht schmälert. Für die Robustifizierung von Schätzern zum Fay-Herriot-Modell nehmen wir eine «theorie-nahe» Perspektive ein, was zu neuen Einsichten führt. Fay-Herriot (1979, J Amer Stat Assoc) haben das nach ihnen benannte Modell als Verallgemeinerung des James-Stein-Schätzers motiviert, wobei sie sich einen empirischen Bayes-Ansatz zunutze machten. Wir greifen diese Motivation des Problems auf und formulieren ein analoges robustes Bayes’sches Verfahren. Wählt man nun in der Bayes’schen Problemformulierung die ungünstigste Verteilung (eng. least favorable distribution) von Huber (1964, Ann Math Statist) als A-priori-Verteilung für die Lokationswerte der Small Areas, dann resultiert als Bayes-Schätzer [= Schätzer mit
    06 - Präsentation
  • Publikation
    Mechanisms for multivariate outliers and missing values
    (19.06.2013) Hulliger, Beat; Schoch, Tobias
    06 - Präsentation
  • Publikation
    Mechanisms for multivariate outliers and missing values
    (19.06.2013) Hulliger, Beat; Schoch, Tobias
    04 - Beitrag Sammelband oder Konferenzschrift
  • Publikation
    Robust, distribution-free inference for income share ratios under complex sampling
    (Springer, 26.05.2013) Hulliger, Beat; Schoch, Tobias [in: AStA Advances in Statistical Analysis]
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Robust Unit-Level Small Area Estimation: A Fast Algorithm for Large Datasets
    (Austrian Journal of Statistics, 01.12.2011) Schoch, Tobias [in: Austrian Journal of Statistics]
    Small area estimation is a topic of increasing importance in official statistics. Although the classical EBLUP method is useful for estimating the small area means efficiently under the normality assumptions, it can be highly influenced by the presence of outliers. Therefore, Sinha and Rao (2009; The Canadian Journal of Statistics) proposed robust estimators/predictors for a large class of unit- and area-level models. We confine attention to the basic unit-level model and discuss a related, but slightly different, robustification. In particular, we develop a fast algorithm that avoids inversion and multiplication of large matrices, and thus permits the user to apply the method to large datasets. In addition, we derive much simpler expressions of the bounded-influence predicting equations to robustly predict the small-area means than Sinha and Rao (2009) did.
    01A - Beitrag in wissenschaftlicher Zeitschrift
  • Publikation
    Robust Multivariate Methods for Income Data
    (26.08.2011) Hulliger, Beat; Schoch, Tobias
    With the EU Statistics on Income and Living Conditions (EU-SILC), the European Union established a coordinated survey and adopted a set of indicators (Laeken indicators) to monitor poverty and social cohesion. In particular, the monetary Laeken indicators are based on the equivalized disposable income per person, an aggregation and redistribution of person- and household-specific income components (e.g., income from employment and capital; unemployment-, old-age-, survivors'-, and disability benefits, etc.). To understand this highly complex data the components that are exclusively measured at household-level are distributed among the household members while the individual components are investigated before they are aggregated and redistributed to all household members. The personal income components show the following characteristics: the marginal distribution of each component is heavily skewed and has a remarkable point mass at zero, the joint distribution of the components is far from being elliptically contoured (even after appropriate transformation), an overwhelming majority of observations lies on subspaces i.e., exhibits structural zeros on certain dimension (e.g., individuals on working age with a positive employee-cash income do neither receive old-age nor unemployment benefits, and vice versa), within subspaces the observations are clustered with respect to non-monetary, socio-economic characteristics, many components have missing values, and finally there are outliers in many components but in addition there are genuinely multivariate outliers. The influence of outliers and outlier treatments on the components and on the equivalized disposable income and the Laeken indicators are investigated. In particular the outliers may have a considerable effect on the the Laeken indicators. The presentation shows the development of outlier detection and imputation methods which are capable to treat the structural zeros appropriately, which work with missing values, which cope with the complex nature of the data, which take the sampling design into account, and which are still computationally feasible.
    04B - Beitrag Konferenzschrift