<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns="http://purl.org/rss/1.0/" xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel rdf:about="http://hdl.handle.net/10521/4479">
<title>Estadística</title>
<link>http://hdl.handle.net/10521/4479</link>
<description>Subespecialidad</description>
<items>
<rdf:Seq>
<rdf:li rdf:resource="http://hdl.handle.net/10521/5050"/>
<rdf:li rdf:resource="http://hdl.handle.net/10521/5026"/>
<rdf:li rdf:resource="http://hdl.handle.net/10521/4977"/>
<rdf:li rdf:resource="http://hdl.handle.net/10521/4947"/>
</rdf:Seq>
</items>
<dc:date>2026-04-16T16:46:59Z</dc:date>
</channel>
<item rdf:about="http://hdl.handle.net/10521/5050">
<title>Planeación de la superficie sembrada para evitar la volatilidad de precios en el mercado de pepino (Cucumis sativus) en México.</title>
<link>http://hdl.handle.net/10521/5050</link>
<description>Planeación de la superficie sembrada para evitar la volatilidad de precios en el mercado de pepino (Cucumis sativus) en México.
Káiser Porras, Arturo
La presente investigación se dividió en dos capítulos, el objetivo del primer capítulo fue enfrentar los precios bajos del pepino en Michoacán, que se presentan en los meses con mayor oferta y que ponen en riesgo los ingresos y la ganancia de los productores; adelantando o retrasando las siembras para que coincidan con los periodos de mayores precios rurales. El objetivo del segundo capítulo fue analizar las medidas de control de la oferta de pepino en México, que permitan enfrentar la volatilidad de precios en el mercado. En los dos capítulos se emplearon diferentes metodologías para el análisis de los datos: en el primero, se calculó el ingreso, el costo y la ganancia, bajos escenarios de siembras tempranas, medias y tardías; en el segundo, se usaron datos mensuales en 2020 para obtener la solución de un modelo de programación que analiza los efectos de la instrumentación de diferentes medidas de control de la oferta sobre el ingreso y ganancia del productor de pepino para maximizarlos. Los principales resultados del primer artículo fueron que, los productores de Michoacán tuvieron pérdidas en el año 2020 que se reflejan en la relación beneficio-costo cuyo valor observado fue de 0.98, lo que quiere decir que, si se invierten 100 pesos en esta hortaliza, solo se recuperan 98. En tanto que, aplicando siembras tempranas y tardías, este indicador mostró mejoras del orden de 1.01 y 1.05 respectivamente. En el segundo artículo los hallazgos indican que, al aplicar un modelo de programación, para maximizar la ganancia de los productores de pepino en México, se hace necesario aplicar medidas de control de la oferta con destino al consumo interno, a través de la planeación de la superficie sembrada; por ejemplo, si se disminuye en 37 mil toneladas la oferta de pepino en el país y esta cantidad se destina el mercado exterior en lugar de al consumo interno, la ganancia aumentará un 80%. Considerando que medidas de control de la oferta tienen efectos positivos sobre el ingreso y ganancia del productor se recomienda contraer la oferta de pepino en el mercado interno, mediante la planeación de la superficie sembrada para estabilizar los precios que se paga a los productores y crear un organismo regulador que garantice que los productores no excederán la superficie sembrada calculada para incidir en la volatilidad de precios de esta hortaliza. _______________ PLANNING THE PLANTED AREA TO AVOID CUCUMBER PRICE VOLATILITY IN MEXICO. ABSTRACT: The present research was divided into two chapters. The objective of the first chapter was to address the low prices of cucumbers in Michoacán, which occur during the months of highest supply and which put incomes and profits of producers at risk, by early or later sowings to coincide with periods of higher rural prices. The objective of the second chapter was to analyze supply control measures for cucumbers in Mexico, that allow to face price volatility in the market. Different methodologies were used for data analysis in both chapters: in the first, income, cost, and profit were calculated under scenarios of early, medium, and late plantings; in the second, monthly data from 2020 was used to obtain the solution of a programming model that analyzes the effects of implementing different supply control measures on the income and profit of cucumber producers. The main results of the first article were that producers in Michoacán had losses in 2020 that are reflected in the benefit-cost ratio whose observed value was 0.98, while applying early and late plantings, this indicator showed improvements of around 1.01 and 1.05 respectively. The main results of the second article were that, by applying a programming model to maximize the profit of cucumber producers in Mexico, it is necessary to apply supply control measures for domestic consumption, through the planning of the planted area; for example, if 37 thousand tons of cucumber supply in the country is reduced and this amount is destined for the export market instead of domestic consumption, the profit will increase by 80%. Considering that supply control measures have positive effects on the income and profit of the producer, it is recommended to reduce the supply of cucumbers in the domestic market, through the planning of the planted area to stabilize the prices paid to producers and to create a regulatory organization that guarantees that producers will not exceed the calculated planted area to influence the volatility of prices of this vegetable.
Tesis (Maestría en Ciencias, especialista en Economía).- Colegio de Postgraduados, Campus. Montecillo, 2023.
</description>
<dc:date>2023-02-01T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/10521/5026">
<title>Modelos de predicción robustos con datos masivos: inferencia y alternativas al MCMC clásico.</title>
<link>http://hdl.handle.net/10521/5026</link>
<description>Modelos de predicción robustos con datos masivos: inferencia y alternativas al MCMC clásico.
Caamal Pat, Diana Yanira
Los datos de alta dimensión han surgido gracias al desarrollo sostenido de las tecnologías que   facilitan la generación y recolección de datos. Estos datos se caracterizan por tener una serie  de  covariables, p, mayores al tamaño de muestra,  n, (p n). El problema principal se presenta durante el ajuste de un modelo, en particular en los cálculos numéricos, asociados a la estimación de un gran  número de componentes aleatorios. El modelo lineal mixto (MLM) es una alternativa para analizar datos agrupados, que incorpora efectos fijos y aleatorios. El ajuste del MLM se realiza mediante el enfoque clásico o bayesiano, en ambos casos generalmente se requiere de la implementación de algoritmos.  En  presencia de alta dimensionalidad, los algoritmos de ajuste se vuelve, en términos computacionales, muy intensos. Este trabajo presenta dos métodos  para  el  ajuste  del  MLM  con  datos  de  alta dimensión.  El primer método consiste en ajustar el MLM utilizando diferentes matrices de varianzas-covarianzas en los efectos fijos y aleatorios.  Este método da como resultado el desarrollo del  paquete lme4GS de R que  proporciona estimaciones REML de los parámetros de interés.  El segundo método  consiste en aplicar la técnica de aumentación ortogonal de datos al MLM para su ajuste mediante el algoritmo esperanza-maximización. Para cada método se evaluó el poder predictivo del modelo y el tiempo de cómputo utilizando datos reales. Los  resultados muestran que los métodos aquí  propuestos son rápidos ya que los tiempos de cómputo son menores en comparación con los algoritmos basados   en Cadenas de Markov Monte Carlo (MCMC), al menos en un 50 %. Las correlaciones entre las estimaciones de los parámetros de varianza mediante los métodos propuestos y los métodos MCMC fueron altas. _______________ ROBUST PREDICTION MODELS WITH BIG DATA: INFERENCE AND ALTERNATIVES TO MCMC METHODS. ABSTRACT: High-dimensional data has emerged thanks to the sustained development of technologies that facilitate data generation and collection. Those data are characterized by a number of covariates p, larger than the sample size, n, (p n). The main problem arises during the fitting of the model, particularly in the numerical calculations, associated with the estimation of a large number of random components. The linear mixed model (LMM) is an alternative to analyze clustered data that incorporate fixed and random effects. The LMM fit is performed by the classic and Bayesian approach, in both cases the implementation of algorithms is generally required. In the presence of high dimensionality, the fitting algorithms become very computationally intensive. This work presents two methods for fitting the LMM with high-dimensional data. The first method consists of fitting the LMM using different variance-covariance matrices in the fixed and random effects. This method results in the development of the lme4GS R package that provides REML estimates of the parameters of interest. The second method consists of applying the orthogonal data augmentation technique to the linear mixed model for its fit using the expectation-maximization algorithm. For each method, the prediction accuracy of the model and the computation time were evaluated using real data. The results show that the proposed methods are fast since the computation times are lower than Markov Chain Monte Carlo algorithms at least by 50 %. The correlations between the variance parameter estimates using the proposed methods and the MCMC methods were high.
Tesis (Doctorado en Ciencias, especialista en Estadística).- Colegio de Postgraduados, Campus Montecillo, 2022.
</description>
<dc:date>2022-07-01T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/10521/4977">
<title>Una contribución al control estadístico multivariado de procesos.</title>
<link>http://hdl.handle.net/10521/4977</link>
<description>Una contribución al control estadístico multivariado de procesos.
Olmos Zepeda, José Rodolfo
En el área de la estadística, existe un conjunto de técnicas encargadas de monitorear y controlar procesos de producción conocido como Control Estadístico de Procesos (CEP). La herramienta más utilizada para estudiar el estado de un proceso en el tiempo es la carta de control. Típicamente, una carta de control es una representación gráfica del proceso que indica si éste se encuentra o no bajo control. Cuando se monitorea una característica de calidad (o variable) continua, la carta de control tipo Shewhart es la de mayor utilidad, pero si el monitoreo se realiza para dos o más variables, posiblemente correlacionadas, la herramienta de control más empleada es la carta T 2 de Hotelling. Para que su uso sea válido, en el caso univariado y multivariado, se requiere que los datos a supervisar cumplan con dos supuestos fundamentales: normalidad e independencia entre observaciones, sin embargo, ambos supuestos son difíciles de sostener en un proceso real y en consecuencia,  el  rendimiento  de  la gráfica  de  control  se  deteriora.  Algunos  enfoques  propuestos para enfrentar estos inconvenientes se basan en el uso de cartas de control a partir de residuales de modelos de series de tiempo o modelos de minería de datos, bootstrap y medidas de profundidad para solucionar la falta de independencia o normalidad. El enfoque de cartas de control bajo medidas de profundidad fue introducido por Regina Liu en 1995 como alternativa de  gráficas  de  control  no  paramétricas  o  de  distribución  libre.  La  suposición  básica  para  usar estas cartas de control es que los datos a monitorear sean independientes. En este trabajo, se propone estudiar vía simulación, a través de la longitud promedio de corrida, el comportamiento de la carta de control multivariada basada en la profundidad de Mahalonobis cuando se relaja el supuesto de normalidad multivariada en presencia de autocorrelación, ésto con el fin de identificar cuan sensible es a la violación del supuesto de normalidad e independencia. Adicionalmente, se  contrasta  su rendimiento  en  esquemas  comparables de  simulación  contra  el  de las  cartas T 2, mewma y mcusum. Se encontró que la carta de control no paramétrica es la única menos afecta en la mayoría de los casos examinados. _______________ A CONTRIBUTION TO STATISTICAL MULTIVARIATE PROCESS CONTROL. ABSTRACT: In the area of statistics, there is a set of techniques responsible for monitoring and controlling pro- duction processes known as Statistical Process Control (CEP). The most used tool to study the status of a process over time is the control chart. Typically, a control letter is a graphic represen- tation of the process that indicates whether or not it is under control. When a continuous quality (or variable) characteristic is monitored, the Shewhart control chart is the most useful, but if monitoring is performed for two or more variables, possibly correlated, the most used control tool is the T 2 Hotelling control chart. For its use to be valid, in the univariate and multivariate case, it is required that the data to be monitored to met two fundamental assumptions: normality and independence between observations, however, both assumptions are difficult to sustain in a real process and, consequently, the performance of the control chart deteriorates. Some approaches proposed to address these problems are based on the use of control charts based on residuals of time series models or data mining models, bootstrap and depth measurements to solve the lack of independence or normality. The control chart approach under depth measurements was introduced by Regina Liu in 1995 as an alternative to non-parametric control charts or free dis- tribution. The basic assumption to use these control charts is that the data to be monitored are independent. In this work, it is proposed to study via simulation, through the average length of the run, the behavior of the multivariate control chart based on the depth of Mahalonobis when the assumption of multivariate normality is relaxed in the presence of autocorrelation, this in order to identify how sensitive it is to the violation of the assumption of normality and indepen- dence. Additionally, its performance is compared in comparable simulation schemes against that of the T 2, mewma and mcusum charts. It was found that the non-parametric control chart is the only one less affected in most of the cases examined.
Tesis (Maestría en Ciencias, especialista en Estadística).- Colegio de Postgraduados, Campus Montecillo, 2020.
</description>
<dc:date>2020-01-01T00:00:00Z</dc:date>
</item>
<item rdf:about="http://hdl.handle.net/10521/4947">
<title>Evaluación de alternativas de análisis en experimentos agrícolas bajo condiciones no normales y muestras pequeñas.</title>
<link>http://hdl.handle.net/10521/4947</link>
<description>Evaluación de alternativas de análisis en experimentos agrícolas bajo condiciones no normales y muestras pequeñas.
Leyva Chávez, Arwell Nathán
En experimentos agrícolas es común encontrar experimentos donde la variable respuesta es de conteos, éstos se han analizado tradicionalmente con una prueba F (ANOVA) y el Modelo Lineal General (LM), sin embargo, muchas veces no se cumplen los supuestos de normalidad y homogeneidad de varianzas. Una alternativa de análisis es el uso de transfor- maciones, donde para el caso de variables de conteos, se recomienda la transformación raíz cuadrada, otra es mediante Modelo Lineal Generalizado (GLM) considerando que la variable de conteos tiene distribución Poisson, sin embargo, las distribuciones de los parámetros esti- mados que se utilizan para hacer inferencia se basan en teoría asintótica y los experimentos utilizan frecuentemente un número pequeño de repeticiones, sobre todo en áreas como la agronomía. Además, cuando se utiliza la distribución Poisson se establece que la media es igual a la varianza, sin embargo, en muchos casos la variable de conteos presenta varianza muy diferente a la media; éste es el caso de sobredispersión; dos de los principales enfoques para el análisis de variables de conteos en presencia de sobredispersión son, utilizar la distri- bución Binomial negativa o Quasipoisson. En este estudio se comparó el tamaño de la prueba y la potencia para probar el efecto de los tratamientos bajo el enfoque del LM (prueba de F en los modelos Normal y con la transformación raíz cuadrada), y GLM (regresión Poisson, Quasipoisson y Binomial negativa) cuando se tiene variable respuesta de conteos y muestras pequeñas. Mediante simulación Monte Carlo se estudió el efecto del número de repeticiones, tamaño del efecto y el número de tratamientos en la potencia y el tamaño de la prueba de los modelos mencionados sin, y con sobredispersión. Cuando los datos no presentan sobre- dispersión se encontró que todos los enfoques mantuvieron el valor nominal de su tamaño de prueba, excepto Quasipoisson, el cual tuvo valores mayores a los nominales con una muestra pequeña, sólo para tamaño de muestra cincuenta se mantuvieron cercanos a los nominales; En cuanto a la potencia de la prueba, el modelo Poisson presentó la mayor. En presencia de sobredispersión, el modelo Poisson no mantuvo el tamaño de prueba cercano al nominal, los modelos Binominal negativo y Quasipoisson solamente en muestras grandes (cincuenta re- peticiones); en este caso los modelos Normal y Normal transformado mantuvieron el tamaño de la prueba cercano al nominal, sin embargo, en muestras grandes tuvieron menos poten- cia que el modelo Binominal negativo. La potencia de la prueba al momento de tener una sobredispersión para muestras pequeñas es muy baja, solamente para cincuenta repeticiones se puede observar que detecta la sobredispersión. Debido a los resultados obtenidos de la prueba de sobredispersión, y que el modelo Poisson y Normal de manera general tuvieron el mismo comportamiento, se recomienda utilizar el modelo Normal para todos los casos presentados. _______________ EVALUATION OF ANALYSIS ALTERNATIVES IN AGRICULTURAL EXPERIMENTS UNDER NO NORMAL CONDITIONS AND SMALL SAMPLES. ABSTRACT: In agricultural experiments, it is common to find research works where the response varia- ble is counts, these experiments have traditionally been analyzed with a test of F (ANOVA) and the General Linear Model (LM), however, many times they are not fulfilled the assum- ptions of normality and homogeneity of variances. One of the analysis alternatives is the use of transformations, where for the case of count variables, the square root transformation is recommended, another of the forms is through the Generalized Linear Model (GLM) consi- dering that the count variable has a Poisson distribution, however, this model is based on asymptotic theory and experiments frequently use a small number of replications, especially in areas such as agronomy. In addition to this, when the Poisson distribution is used, the characteristic is established that the mean is equal to the variance, however, in many cases the variable of counts presents variance that is very different from the mean; this is the case of overdispersion (the variance greater than the mean); Two of the main approaches for the analysis of count variables in the presence of overdispersion, are to use the negative Binomial or Quasipoisson distribution. In this study, the test size and power were compared to test the effect of the treatments under the LM approach (F test in Normal models, and F test with the square root transformation), and GLM (Poisson, Quasipoisson and negative Binomial regression) when there is a response variable of counts and small samples. Using Monte Carlo simulation, the effect of the number of repetitions, effect size and the number of treatments on the power and size of the test of the models mentioned above without, and with overdispersion, was studied. When the data do not present overdispersion, it was found that all the approaches maintained the nominal value of their test size, except Quasipoisson, which had test sizes greater than the nominal ones when there was a small sample, only for sample size fifty, kept test sizes close to nominal; Regarding the power of the test, the Poisson model presented the highest. In the presence of overdispersion, the Poisson model did not keep the test size close to the nominal, the negative Binominal and Quasipoisson models only kept it in large samples (fifty replicates); In this case, the Normal and Transformed Normal models kept the test size close to the nominal, however, in large samples they had less power than the negative Binominal model.
Tesis (Maestría en Ciencias, especialista en Estadística).- Colegio de Postgraduados, Campus Montecillo, 2021.
</description>
<dc:date>2021-01-01T00:00:00Z</dc:date>
</item>
</rdf:RDF>
