Informations

Pourquoi le QI a-t-il une distribution normale tronquée ?

Pourquoi le QI a-t-il une distribution normale tronquée ?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Je sais que la statistique de QI est conçue pour lui donner une moyenne de 100 et que vous ne trouverez certainement jamais quelqu'un avec un QI inférieur à 1 ou supérieur à 300, mais cela nous en dit très peu sur la variance ou la forme générale de la distribution. Alors pourquoi se fait-il que chaque graphique des scores de QI que j'ai vu semble être une distribution normale tronquée ? S'agit-il d'une propriété de la conception du test, d'une propriété des sujets de test ou d'un théorème profond des statistiques que j'ai négligé ?


Le QI n'est pas Ordinaire, son normalisé avoir une moyenne de 100 et un écart type de 15, généralement via une méthode de centile.

La raison pour laquelle le QI semble à peu près normal est que l'intelligence (quelle que soit sa définition) est un trait complexe. Les traits complexes devraient avoir une distribution à peu près normale sur la base du théorème central limite : une somme de nombreux facteurs individuels (y compris les facteurs génétiques et environnementaux) aura tendance à être distribuée normalement dans une population, même si les facteurs sous-jacents eux-mêmes ne sont pas normaux.

Il n'y a pas de véritable mesure concrète de « QI » : il ne s'agit pas de mesurer une propriété physique du monde réel de la même manière que vous mesurez la masse ou la longueur. Au lieu de cela, vous utilisez des tests destinés à obtenir une certaine mesure de ce trait abstrait, puis vous normalisez les individus en fonction des statistiques du groupe. Les tests réels administrés pour mesurer le QI auront un score minimum et maximum : vous pouvez au pire vous tromper à chaque question, au mieux répondre correctement à chaque question.


Pourquoi le QI a-t-il une distribution normale tronquée ? - Psychologie

La régression OLS est une technique largement appliquée, et de nombreuses variantes de la régression classique existent. Parmi elles, se trouvent les régressions tobit et tronquées. Leur utilisation est recommandée lorsque la variable dépendante (Y) est contrainte d'une certaine manière. Les deux ont une caractéristique commune. La variable Y est traitée comme variable latente (notée Y*) plutôt que comme variable observée. Ceci soulève plusieurs complications par rapport à l'OLS classique.

J'ai décidé de couvrir ce sujet parce que j'ai appliqué ce type d'analyse dans mon article sur les changements de score noir-blanc dans le test GSS Wordsum. Ces techniques ne sont pas disponibles dans SPSS. L'une des raisons peut être que ces techniques sont principalement appliquées par des économistes (qui utilisent principalement Stata), et non par des psychologues (qui utilisent principalement SPSS et peuvent même ne pas être au courant de ces techniques). Cependant, le problème posé par la censure et la troncature des données est également pertinent dans le domaine de la psychologie.

La régression tobit (ou censurée) est proposée pour une variable dépendante censurée soit à l'extrémité inférieure, soit à l'extrémité supérieure de sa distribution. Ou les deux. La censure est essentiellement un problème d'effets de sol et de plafond. Par exemple, certains individus sont empilés à une certaine valeur seuil (τ) car ils ne peuvent pas avoir un score supérieur ou inférieur sur la variable. Cela peut être dû à des différences, car le test peut être trop facile ou trop difficile. Mais la censure peut prendre une autre forme. Une variable de revenu peut avoir été codée en catégories, par exemple 10 000 $ à 20 000 $, etc. …, mais à la toute fin, notre dernière catégorie peut être quelque chose comme “ 100 000 $ et plus”. Dans ce cas, la variable est censurée à l'extrémité supérieure. Comme mentionné précédemment, il est possible d'avoir une donnée censurée aux deux extrémités, et dans ce cas, nous spécifions une régression tobit à deux limites (en définissant la valeur pour les valeurs censurées inférieure et supérieure) voir Long (1997, pp. 212 -213) pour un développement. Par exemple, dans la couverture d'assurance, il existe une couverture minimale, une couverture maximale et des valeurs intermédiaires.

La régression tronquée est proposée pour une variable dépendante pour laquelle sa distribution n'est pas représentative de l'ensemble de la population. La troncature est essentiellement un problème de restriction de plage (bien qu'il soit inexact d'égaliser la troncature avec la restriction de plage). Par exemple, les données peuvent avoir été collectées pour des personnes ayant acheté des biens durables. Mais les personnes qui n'ont pas acheté ces biens en raison, par exemple, de leurs niveaux de prix, sont donc dites tronquées par le bas (au lieu d'en haut). Cela ne veut pas dire que l'OLS est nécessairement biaisé. Cela dépend de l'objectif de l'analyse. Si nous nous intéressons à la valeur de Y pour l'ensemble de la population, la MCO est biaisée. Mais si nous ne nous intéressons qu'à notre sous-échantillon, l'OLS est suffisant (voir le manuel Stata). Cependant, nous devons être conscients que lorsque nous omettons une partie des données de cette manière, les points de données tronqués manquent également non pas au hasard (car la valeur de Y pour les observations tronquées et non tronquées est différente).

Une représentation graphique de la censure et de la troncature est donnée par Long (1997) :

Dans le panneau A se trouve la variable “latent” Y* que les régressions tobit et tronquées tentent d'estimer (sur la base de l'ensemble de variables indépendantes). Lors de la censure, les observations sont censurées et empilées à zéro lorsque τ=1. Mais, pour la troncature, les observations disparaissent littéralement lorsqu'elles sont inférieures (ou égales) à la valeur seuil τ=1.

Les deux techniques utilisent le maximum de vraisemblance (ML) pour estimer l'effet des changements dans les variables indépendantes (X) sur la valeur attendue (c'est-à-dire « potentiel ») de la variable dépendante (Y) étant donné une distribution gaussienne (c'est-à-dire normale). . La valeur attendue de la variable dépendante étant latente (c'est-à-dire non observée), il n'est pas possible d'obtenir des coefficients standardisés, à moins d'appliquer une procédure particulière (Long, 1997, pp. 207-208).

Quant au tobit, la technique permet une décomposition de l'effet de X sur le Y latent (c'est-à-dire le coefficient tobit) en deux parties : la variation de la probabilité d'être au-dessus de la valeur censurée multipliée par la valeur attendue de Y si au-dessus plus le changement du Y attendu pour les cas au-dessus de la valeur censurée multiplié par la probabilité d'être au-dessus de la valeur censurée (McDonald & Moffitt, 1980). Mathématiquement, la variable latente Y* dans le modèle tobit est donnée par :

δEy/δXi = F(z) x (δEy*/δXi) + Ey* x (δF(z)/δXi)

où F(z) est la proportion d'observations (c'est-à-dire la probabilité) qui sont au-dessus du seuil, δEy*/δXi est la variation de la valeur attendue de Y pour les observations au-dessus du seuil associées à une variable indépendante, δF(z)/δXi est la variation de la probabilité d'être au-dessus du seuil associé à une variable indépendante.

Long (1997, p. 196) présente la formule de manière plus intuitive :

E(y) = [Pr(Non censuré) x E(y|y>τ)] + [Pr(Censuré) x E(y|y=τoui)]

Pr pour probabilité, E(y) pour y attendu, et | y>τ pour conditionnel à y au-dessus de τ, et τoui est la valeur de y si y* est censuré (au moins dans le livre Long’s (voir p.197)).

Si l'on ne s'intéresse qu'aux évolutions des X sur le Y latent, les coefficients obtenus à partir de la régression tobit peuvent être interprétés de la même manière que ceux obtenus à partir de la régression OLS (Roncek, 1992).

La formule de la régression tronquée se trouve dans Long (1997, p. 194) et dans le manuel Stata pour la fonction truncreg.

Nous n'avons pas fourni de réponse détaillée sur les raisons pour lesquelles l'OLS est incompatible avec les données tronquées lorsque notre intérêt se concentre sur les estimations de la population. Une hypothèse cruciale de la régression OLS est l'indépendance des erreurs (résidus). Les résidus doivent avoir une moyenne nulle et être non corrélés avec toutes les variables explicatives. Le problème ici est que les données tronquées font que la ou les sélections d'échantillons sont corrélées avec le terme d'erreur (u). Wooldridge (2012, pp. 616-617) fournit un exemple avec un indicateur de sélection s, c'est-à-dire s=1 si on observe toutes les données ou s=0 sinon, où s=1 si le Ychapeau est inférieur ou égal au seuil (en considérant que les données sont tronquées par le haut). De manière équivalente, s=1 si u≤τ-Xβ, où Xβ est un raccourci pour β0 + β1X1 + β2X2, … . Cela signifie que la valeur de s covarie avec u.

Long (1997) illustre les conséquences de la censure et de la troncature pour l'estimation MCO avec la figure 7.2. La ligne continue est donnée par l'estimation OLS de Y qui n'est pas censurée. La longue ligne pointillée, OLS avec données censurées, a une interception inférieure et une pente plus raide en raison des nombreuses valeurs fixées à zéro (indiquées sous forme de triangles), juste en dessous de la ligne horizontale de seuil τ=1, qui abaissent le côté gauche de la longue ligne pointillée. La ligne pointillée courte est donnée par une estimation OLS avec des points de données inférieurs à =1 étant tronqués (c'est-à-dire supprimés) au lieu d'être censurés et montre une interception plus élevée et une pente plus petite.

La figure 7.7 (page 202) montre également de manière très simple les effets de la censure et de la troncature. La différence ici est que les points de données de censure sont égaux au seuil plutôt qu'en dessous de celui-ci. Les points en dessous du seuil τ=2 sont des points de données tronqués. E(y*|x) dans la ligne continue est l'estimation correcte. E(y|y>2|x) est donné par la longue ligne pointillée. Nous voyons que la longue ligne pointillée est indiscernable de la ligne continue lorsque nous nous déplaçons vers le côté droit, mais la longue ligne pointillée est au-dessus de la ligne continue lorsque nous nous déplaçons vers le côté gauche. C'est parce qu'il y a peu (beaucoup) de points de données tronqués sur le côté droit (gauche). La longue ligne pointillée se rapproche de plus en plus de τ à mesure que nous nous déplaçons vers la gauche. On voit aussi qu'il y a des cercles le long de la ligne horizontale τ=2. Ce sont des points de données censurés. La ligne pointillée courte représentée par E(y|x) est légèrement en dessous de la ligne pointillée longue sur le côté gauche de l'axe des x, car les cas censurés n'ont pas été éliminés.

Les deux types de régression nécessitent la normalité et l'homoscédastique des résidus, même dans le cas de tobit qui considère toujours une distribution censurée comme non normale. Mais comme la variable Y* n'est pas observable, nous ne pouvons pas obtenir notre variable résiduelle en faisant Y moins Ychapeau car nous devons utiliser Y* au lieu de Y. Dans la régression tobit, une procédure complexe doit être appliquée pour obtenir les résidus généralisés et effectuer le test de normalité (Cameron & Trivedi, 2009, pp. 535-538).

Une caractéristique particulière de ces types de régressions est qu'un coefficient standardisé n'est généralement pas rapporté dans les logiciels statistiques car son calcul n'est pas simple. Normalement, les coefficients entièrement normalisés sont obtenus avec l'opération coeff(X)/SD(Y)*SD(X). Dans le cas de la régression tobit, Roncek (1992, p. 506) montre que le coefficient tobit standardisé peut être obtenu par coeff(X)*f(z)/« sigma ». f(z) est l'unité de densité normale c'est (à mon avis) une manière compliquée de présenter la formule car on aurait pu remplacer l'ambigu f(z) par la notation plus intuitive SD(X). “Sigma” est l'erreur standard estimée du modèle de régression tobit (généralement signalée par le logiciel) et est comparable à l'erreur quadratique moyenne estimée dans la régression OLS. Mais puisque sigma est la variance de Y* conditionnelle à l'ensemble des variables X et qu'elle n'a pas besoin d'être égale à Y* inconditionnel, ce dont nous avons besoin, Long (1997, pp. 207-208) soutient que la variance inconditionnelle de Y* doit être calculé avec la forme quadratique :

où Var^(x) est la matrice de covariance estimée parmi les x’s et ^ε² est l'estimation ML de la variance de ε. Ainsi, Long suggère que nous utilisions la formule coeff(X)*SD(X)/σ^oui*².

Même si les coefficients standardisés semblent généralement préférés par les psychologues, les économistes (et en particulier les économètres) n'aiment pas les coefficients standardisés et ne recommanderont probablement pas leur utilisation.

Enfin, il convient de noter que l'OLS n'est pas toujours incompatible avec les données ayant une sélection d'échantillons (Wooldridge, 2012, pp. 615-616). Nous allons réutiliser son exemple de l'indicateur s de sélection d'échantillons. Si la sélection de l'échantillon (s) est aléatoire dans le sens où s est indépendant de X et u, la MCO est sans biais. Mais MCO reste sans biais même si s dépend de variables explicatives X et de termes aléatoires supplémentaires qui sont indépendants de X et u. Si le QI est un prédicteur important mais est manquant pour certaines personnes, tel que s=1 si QI≥v et s=0 si QI<v, où v est une variable aléatoire non observée indépendante du QI, u et des autres variables X, alors , s est toujours indépendant de u. Il n'est pas obligatoire que s soit non corrélé avec X variables indépendantes, à condition que X variables soient non corrélées avec u car cela implique que le produit de s et X doit également être non corrélé avec les résidus u.


Race et intelligence : « La courbe en cloche » 20 ans plus tard

20 ans après sa première publication, La courbe en cloche le co-auteur Charles Murray revient sur les arguments troublants de son livre sur la race et le QI. Mais La courbe en cloche fait partie d'une histoire beaucoup plus longue d'arguments sur la race et l'intelligence, enracinée de manière critique dans le racisme scientifique précoce et plus tard, le mouvement eugéniste. Nous revisitons cette histoire et ses implications pour la marque familière du racisme scientifique moderne de Murray.

Les hiérarchies raciales reposent depuis longtemps sur des hypothèses selon lesquelles (1) les races sont des catégories biologiquement distinctes et différenciables, et (2) que ces races diffèrent par des capacités physiques, comportementales et intellectuelles importantes. Les premières itérations du racisme scientifique, comme le livre influent de 1854 Types d'humanité (écrit par Josiah Clark Nott et George Robins Gliddon), a plaidé en faveur d'une échelle évolutive de l'humanité qui positionne les Européens au sommet et les Noirs (caricaturés comme physiquement et comportementaux similaires aux grands singes) en bas.

50 ans plus tard, les eugénistes ont proposé une approche particulièrement moderne de la question de la race et de l'intelligence grâce à l'utilisation de tests d'intelligence "standardisés" comme le test de Stanford-Binet, le prédécesseur du test de QI moderne. Les résultats de ces tests apparemment « objectifs » ont permis aux eugénistes de déployer des données concrètes à l'appui de leurs théories de supériorité/infériorité raciale. Des tests similaires ont également été utilisés pour «diagnostiquer» la déficience intellectuelle, les résultats des tests conduisant à l'exclusion des immigrants «mentalement inférieurs» et à l'institutionnalisation et à la stérilisation de masse des personnes «débiles d'esprit».

Nombre d'officiers de l'armée américaine faisant preuve d'une intelligence « supérieure ou très supérieure » ​​par race et pays d'origine. Extrait du témoignage donné par le surintendant de l'ERO Harry Laughlin à la Chambre des représentants lors des audiences sur la restriction de l'immigration, mars 1924. Largement diffusé “échelle imbécile” des années 1920 et 30. Chaque « étape » a été définie par un « âge mental » déterminé par les performances au test de Stanford-Binet. Exemple de test de Binet, c. 1921. À partir de l'archive d'images sur le mouvement eugéniste américain. Projet de conférence : « Les races diffèrent-elles en termes de capacité mentale ? » Par le directeur de l'ORE Charles B. Davenport, s.d.

Aujourd'hui, des arguments similaires sur la race et l'intelligence continuent d'être redéployés. Célèbre, 1994’s La courbe en cloche et le livre récent de Nicholas Wade Un héritage gênant : gènes, race et histoire humaine a fait valoir que le supposé "fait" des différences raciales d'intelligence (tel que mesuré par les tests de QI) nécessitait un calcul sociétal, indépendamment du politiquement correct.

Dans un Q+R marquant le 20e anniversaire de La courbe en cloche, le co-auteur Charles Murray a soutenu stoïquement les déclarations du livre :

“Il existe une différence moyenne entre les scores en noir et blanc aux tests mentaux, historiquement d'environ un écart type en amplitude aux tests de QI (les tests de QI sont normés de sorte que la moyenne est de 100 points et l'écart type est de 15). Cette différence n'est pas le résultat d'un biais de test, mais reflète des différences dans le fonctionnement cognitif.”

Murray poursuit en affirmant que le monde universitaire a fait taire les conversations sur les différences raciales en matière d'intelligence en raison du « politiquement correct », qu'il compare à la « corruption ».

Mais des critiques comme l'auteur Stephen Murdoch (IQ : l'idée géniale qui a échoué) ont longtemps remis en question l'existence même d'une « intelligence générale » mesurable que les tests de QI prétendent mesurer :

“La théorie de l'intelligence générale est le fondement même des tests d'intelligence grand public au cours du siècle dernier, mais même les plus ardents partisans de g (renseignement général) admettra qu'il n'a pas été établi de manière indiscutable jusqu'à ce qu'il y ait une preuve au-delà des relations statistiques de gAvec l'existence et la mesurabilité, la société ne devrait pas traiter les tests de QI comme s'ils pouvaient classer les gens de manière significative le long d'un continuum d'intelligence innée. Pour la même raison, toutes les inférences basées sur les résultats des tests de QI sur les différences raciales sont dangereusement infondées.” – QI, p. 229

Comment définissons-nous l'intelligence, sans parler de la mesurer ? D'un point de vue historique, il semble que les partisans des tests standardisés aient été moins intéressés par les réponses objectives que par l'utilité des tests pour reconstruire les hiérarchies fatiguées de l'humanité.


Les statistiques montrent les disparités de QI entre les races. Voici ce que cela signifie vraiment

Pourquoi le QI des Africains est-il si bas comparé aux Asiatiques et aux Blancs ? est apparu à l'origine sur Quora : l'endroit pour acquérir et partager des connaissances, permettant aux gens d'apprendre des autres et de mieux comprendre le monde.

Tout d'abord un avertissement : il n'y a pas de race biologique, c'est une invention sociale. Mais racisme est bien réel, de sorte que l'état de santé d'un peuple tend à refléter la race à laquelle il est perçu comme appartenant. Pour des raisons pratiques, j'écris comme si la race était réelle pour faciliter la communication, mais ce n'est pas le cas.

Oui. il existe des différences de QI mesuré entre les différentes « races ». Mais que signifient ces différences si quelque chose? On ne peut pas comparer avec précision et de manière significative les scores de personnes ayant des expériences différentes en termes d'état de santé et d'opportunités éducatives (voir la réponse à la question Pourquoi le QI des Africains est-il si faible par rapport aux Asiatiques et aux Blancs ? ci-dessous). Si les tests de QI sont utilisés pour comparer des individus d'origines très différentes, alors la variable de l'intelligence innée n'est pas testée isolément. Au lieu de cela, les scores refléteront une combinaison impossible à trier de capacités et de différences d'opportunités et de motivations », [i] écrit Brink Lindsey. De plus, le QI n'est pas une mesure du potentiel intellectuel hérité, permanent et invariable. Bien qu'il soit souvent discuté comme si c'était le cas. Il mesure, bien qu'imparfaitement, à quel point on a maîtrisé certaines compétences intellectuelles telles que l'alphabétisation et la capacité d'analyser et d'utiliser les mathématiques de base. Les personnes qui le font moins bien que les autres peuvent avoir des déficits intellectuels ou souffrir d'une mauvaise exposition scolaire, d'un traumatisme, d'un empoisonnement ou même de la pauvreté. Le QI est donc une mesure utile pour percevoir de telles limitations, mais PAS pour discerner que l'on a une diminution génétique ou intellectuelle permanente : malheureusement, il est couramment interprété de cette manière pour revendiquer l'intelligence intrinsèquement inférieure des personnes à la peau foncée.

En évaluant les affirmations des héréditaires ayant des liens racistes connus de QI blanc et asiatique plus élevé, nous devons garder à l'esprit une tendance appelée «effet Pygmalion». Dans une expérience classique de 1960, les enseignants californiens ont été informés qu'à la suite des résultats des tests de QI, certains de leurs élèves étaient considérés comme « spéciaux », avec un potentiel prodigieux et l'attente d'une grandeur intellectuelle. En conséquence, les notes des enfants étiquetés « spécial » se sont considérablement améliorées et, lorsqu'elles ont été testées un an plus tard, la moitié de leurs scores de QI avaient augmenté de 20 points. En fait, ces enfants avaient été choisis au hasard, et l'amélioration de leurs scores a permis de démontrer le rôle démesuré que les attentes des enseignants peuvent jouer dans la réussite scolaire d'un élève.

De plus, en 2005, nous avons vu un exemple de cet effet lorsque le département de l'Éducation du comté de Broward, qui avait auparavant affecté les enfants dans des classes normales, de rattrapage ou surdoués uniquement en fonction des évaluations de leurs enseignants, a commencé à administrer des tests standardisés à tous les élèves de deuxième année.

Le nombre d'enfants afro-américains surdoués dans le district a grimpé de 80 % et celui des enfants hispaniques surdoués a immédiatement grimpé de 130 %. Peu de temps après, le changement de politique a entraîné un triplement des étudiants « doués » noirs et hispaniques.

Aucun des gènes des élèves n'avait changé.

Il convient de noter que certains soulignent le fait que certaines populations asiatiques, et non les Blancs, reçoivent les scores les plus élevés et soulignent le fait de contrer les accusations de racisme. Cependant, tous les Asiatiques ne reçoivent pas des scores élevés, et les scores les plus élevés sont utilisés pour renforcer le mythe modèle de la minorité et pour diaboliser les Asiatiques. Frank Wu qui a écrit Jaune : Course en Amérique au-delà du noir et du blanc souligne que « les Américains d'origine asiatique ne sont impliqués dans la discussion que dans le but de réprimander les Noirs et les Hispaniques ». Il note également que les scores de QI élevés et l'intelligence accordés aux Asiatiques sont également subtilement retournés contre eux pour les caractériser comme manquant de créativité et comme des concurrents déloyaux qui sont claniques et peu disposés à s'assimiler. Pendant ce temps, l'écart entre les QI blancs et asiatiques continue de se creuser, les Asiatiques dépassant la croissance du QI des Blancs. L'écart moyen entre les QI afro-américains et blancs se réduit, ce que certains attribuent à un meilleur accès à l'enseignement supérieur, mais des études supplémentaires sont nécessaires pour le comprendre.

[i] Brink Lindsey, « Pourquoi les gens ne comprennent pas le lien entre la race et le QI », L'Atlantique, 15 mai 2013, Pourquoi les gens continuent de mal comprendre le « lien » entre la race et le QI

Cette question est apparu à l'origine sur Quora - l'endroit pour acquérir et partager des connaissances, permettant aux gens d'apprendre des autres et de mieux comprendre le monde. Vous pouvez suivre Quora sur Twitter et Facebook. Plus de questions:


WAIS-III[modifier | modifier la source]

Le WAIS-III a été publié en 1997. Il a fourni des scores pour le QI verbal, le QI de performance et le QI à pleine échelle, ainsi que quatre indices secondaires (compréhension verbale, mémoire de travail, organisation perceptive et vitesse de traitement).

QI verbal (VIQ)[modifier | modifier la source]

Inclus sept tests et fourni deux sous-indices de compréhension verbale et de mémoire de travail.

L'indice de compréhension verbale comprenait les tests suivants :

L'indice de mémoire de travail comprenait :

Le septième test de compréhension n'a été inclus dans aucun indice

QI de performance (PIQ)[modifier | modifier la source]

Il comprenait sept tests et fournissait également deux sous-indices d'organisation perceptive et de vitesse de traitement.

L'indice d'organisation perceptive comprenait :

L'indice de vitesse de traitement comprenait :

Deux tests de disposition d'images et d'assemblage d'objets n'ont pas été inclus dans les index


Analyse : Comment la pauvreté peut faire baisser l'intelligence

Si vous pensez connaître le coût d'être pauvre, à moins que vous n'ayez été pauvre, vous avez probablement tort.

Les effets secondaires habituels de la pauvreté sont abondants et bien documentés. Ils comprennent la criminalité, le stress chronique et une longue liste de problèmes de santé. Mais vous n'avez peut-être pas entendu parler de celui-ci : un QI inférieur. C'est selon un article récent d'Alice Walton dans le journal de l'Université de Chicago Business School, L'examen du stand de Chicago: "Comment la pauvreté change votre état d'esprit." Walton, passant en revue des recherches avec lesquelles je n'étais pas familier, rapporte le résultat final : que la pauvreté abaisse votre QI - dans une étude, d'environ 13 points.

Cela peut paraître ridicule. Et en effet, de nombreuses études ponctuelles dans ce que les sceptiques appellent les soi-disant sciences sociales ne valent peut-être pas la peine d'être généralisées. C'est parce que tant de gens sont menés sur des personnes « ÉTRANGES » – celles des pays occidentaux, éduqués, industrialisés, riches et démocratiques. (Voir ce célèbre article de psychologie, « Les personnes les plus étranges du monde ? », pour les détails fascinants.) Le problème de l'échantillonnage est aggravé par le fait que tant de sujets des personnes étranges sont des étudiants américains qui cherchent juste à en faire quelques-uns. chevreuils. Est-ce qu'ils prennent les tests au sérieux ?

Alors méfiez-vous de tout papier avec une nouvelle découverte surprenante. Mais lorsque différents universitaires respectés ont étudié une question (dans ce cas, les effets de la pauvreté sur la fonction mentale) et continuent de reproduire les résultats des uns et des autres, il est probablement sage de prendre ces résultats au sérieux.

Un groupe de chercheurs – Anandi Mani, Sendhil Mullainathan, Eldar Shafir et Jiaying Zhao – a réalisé une étude désormais bien connue et souvent citée qui a aidé à établir le lien entre pauvreté et causalité. En laboratoire, ils ont suscité des réflexions sur les finances et ont découvert que cela réduisait les performances cognitives des participants pauvres, mais pas des participants aisés. (C'est une étude dont toute personne qui se soucie de l'économie devrait être au courant, et je me sens plutôt coupable de ne pas l'avoir été.)

La prochaine étape, écrivent les auteurs : « nous avons examiné la fonction cognitive des agriculteurs au cours du cycle de plantation. Nous avons constaté que le même agriculteur présente des performances cognitives diminuées avant la récolte, lorsqu'il est pauvre, par rapport à après la récolte, lorsqu'il est riche.

Et voici le kicker : « Cela ne peut pas s'expliquer par des différences de temps disponible, de nutrition ou d'effort de travail. Cela ne peut pas non plus être expliqué par le stress.

"Au lieu de cela", écrivent-ils, dans leur conclusion déprimante, "il semble que la pauvreté elle-même réduit la capacité cognitive." (en italique le mien). "Nous suggérons que cela est dû au fait que les problèmes liés à la pauvreté consomment des ressources mentales, laissant moins pour d'autres tâches."

Maintenant, cela semble intuitivement vrai. Ou du moins logique. Pensez aux conducteurs sur les téléphones portables. Leurs préoccupations en matière de communication « consomment certainement des ressources mentales », ce qui explique presque sûrement pourquoi les morts sur les routes dans ce pays, qui avaient chuté de près de 30 000 par an, sont maintenant remontés à 40 000 avec l'omniprésence des iPhones, Galaxies et autres. Essayez simplement de compter à rebours à partir de 100 par 7 - un test standard d'acuité mentale - tout en essayant de comprendre où exactement WAZE veut que vous vous tourniez, et encore moins de parler à vos enfants.

Je n'ai jamais été sans le sou, Dieu merci, mais mes reportages au fil des décennies m'ont confronté au chaos de la pauvreté à maintes reprises : les personnes interrogées qui ne se sont pas présentées parce que leur voiture est tombée en panne ou qu'elles ont obtenu un concert de dernière seconde (déneigement, dans un cas), ou un ami avait désespérément besoin d'aide.

Pour les chercheurs, le chaos coûte — cognitivement. Combien?

Ce sont des économistes qui s'en souviennent, ce qui veut dire qu'ils adorent quantifier.

"Les personnes pauvres, confrontées à un problème financier difficile", écrit Walton dans son étude, subissent "une tension cognitive équivalente à un déficit de 13 points de QI ou à une nuit de sommeil perdue".

Maintenant, pour mettre cela dans un contexte statistique, un déficit de QI de 13 points est énorme. Par définition, les tests de QI se situent le long de la courbe familière « normale » ou « cloche », qui ressemble à ceci :

Avec l'aimable autorisation de Wikimedia Commons.

Vous voyez ces lettres grecques sur l'axe horizontal (alias X) en bas avec les chiffres uniques devant elles ? Ce sont des sigmas en minuscules : . Ils indiquent l'écart type par rapport à la crête de la cloche, qui est la moyenne ou « moyenne ». Les tests de QI sont conçus pour que la moyenne soit de 100. Ils sont également conçus pour qu'un écart type soit de 15 points.*

Vous pouvez voir ce que cela signifie en regardant le monticule ci-dessus. Un écart type par rapport à la moyenne, dans une courbe normale, comprend 34,1 % du total — dans le cas d'un test de QI, 34,1 % de toutes les personnes qui le passent.

Alors maintenant, insérons les nombres de QI. Le graphique ci-dessous montre comment ils sont distribués. Plus des deux tiers de tous les Américains se situent dans la fourchette de QI entre 85 et 115. Un autre score de 13,6 % entre 115 et 130, égal en nombre par ceux qui ont un QI compris entre 70 et 85. Et au moment où vous atteignez 3σ — trois écarts types — vous parlez de personnes qui ont obtenu 55 ou moins et 145 et plus. À peine 0,2 pour cent de la population se situe aussi loin sur les « queues » de la distribution dans les deux sens.

Avec l'aimable autorisation de Wikimedia Commons.

Prenez donc un Américain de QI moyen : 100. La pauvreté, selon les estimations de l'article qui a déclenché ce message, ramènerait une personne à un QI de 87, la laissant derrière environ un tiers de ses compatriotes américains d'intelligence égale - juste parce qu'ils sont pauvres.

D'accord, peut-être que vous ne croyez pas les données. Ou pensez que le QI compte autant. Ou les deux. Mais, comme le dit Alice Walton dans son examen de la recherche, « des déficits cognitifs similaires ont été observés chez des personnes qui subissaient un stress financier réel. [L'article] est l'une des nombreuses études suggérant que la pauvreté peut nuire à la cognition. L'examen du problème par Walton, lié à ce qui précède, mérite d'être lu dans son intégralité.

*En fait, le test de QI a été rendu plus difficile au fil des ans pour maintenir le score moyen à 100. Pourquoi ? Parce que dans l'ensemble de la société, les scores de QI se sont continuellement améliorés au fil des ans, ce que l'on appelle maintenant «l'effet Flynn», bien que personne ne sache ce qui cause cette augmentation.

Support pour faire Sen$e fourni par:

À gauche : Une nouvelle étude montre un lien entre la pauvreté et un QI inférieur. (Photo de Spencer Platt/Getty Images)


Creusez plus profondément : qu'est-ce qu'un nom ? Retard mental

Dans le passé, les individus avec des scores de QI inférieurs à 70 et d'importants retards de fonctionnement adaptatif et social ont été diagnostiqués avec un retard mental. Lorsque ce diagnostic a été nommé pour la première fois, le titre ne contenait aucune stigmatisation sociale. Avec le temps, cependant, le mot dégradant « retard » est né de ce terme diagnostique. « Retard » était fréquemment utilisé comme raillerie, en particulier chez les jeunes, jusqu'à ce que les mots « retard mental » et « retardé » deviennent une insulte. En tant que tel, le DSM-5 qualifie désormais ce diagnostic de «déficience intellectuelle». De nombreux États avaient autrefois un département de retard mental pour servir les personnes diagnostiquées avec de tels retards cognitifs, mais la plupart ont changé leur nom en département des troubles du développement ou quelque chose de similaire dans la langue. La Social Security Administration utilise toujours le terme « retard mental » mais envisage de le supprimer de sa programmation (Goad, 2013 [7] ). Plus tôt dans le chapitre, nous avons discuté de la façon dont le langage affecte notre façon de penser. Pensez-vous que changer le titre de ce département a un impact sur la façon dont les gens considèrent les personnes ayant une déficience intellectuelle ? Un nom différent donne-t-il plus de dignité aux gens, et si oui, comment ? Cela change-t-il les attentes des personnes ayant des déficiences développementales ou cognitives ? Pourquoi ou pourquoi pas?


Pourquoi le QI fluctue au cours de votre durée de vie

En 1932, toute la population d'écossais de 11 ans (87 498 enfants) a passé un test de QI. Plus de 60 ans plus tard, les psychologues Ian Deary et Lawrence Whalley ont retrouvé environ 500 d'entre eux et leur ont fait passer à nouveau le même test.

Il s'avère que la corrélation était étonnamment élevée -- 0,66, pour être exact. Ceux qui étaient en haut du peloton à 11 ans avaient également tendance à être en haut du peloton à 80 ans, et ceux qui étaient en bas avaient également tendance à rester en bas. Tout aussi intéressante, la corrélation était loin d'être parfaite. Quelques valeurs aberrantes ont pu être trouvées. Une personne avait un QI de plus de 100 à 11 ans, mais a obtenu un peu plus de 60 à 80 ans. Il existe de nombreuses raisons possibles à cette valeur aberrante, notamment la démence. D'autres personnes ont montré des augmentations de QI en vieillissant. En moyenne, les scores individuels (ou absolus) des personnes au test repris à 80 ans étaient beaucoup plus élevés (plus d'un écart type) que leurs scores à 11 ans, même si le classement des personnes est resté à peu près le même.

Ces résultats illustrent ce que les psychologues trouvent maintes et maintes fois. Le QI a tendance à rester relativement stable tout au long de la vie. Le mot clé ici est relatif. Les chercheurs en QI s'intéressent à l'explication des différences. Du point de vue du développement, l'intelligence d'un individu n'est pas fixée à la naissance. Bien que l'ordre de classement des scores tende à rester stable (changement relatif), les scores au sein des individus fluctuent passablement (changement absolu). As the noted IQ researcher (and my mentor) Nicholas J. Mackintosh notes in his superb book "IQ and Human Intelligence,"

"If, aged 40, you obtain the same absolute score on the same test as the score you had obtained at age 10, something would have gone seriously wrong in your life. The long-term stability of IQ means only that your standing relative to others of your age stays much the same."

In childhood and adolescence, intelligence is particularly vulnerable to plasticity and change. The relation between brain size and IQ is lower in children than in adults. IQ is related to brain development in complex ways. One study followed 300 children up to early adulthood. At age 7, the higher IQ children (greater than 120) tended to have less cortical thickness. Soon after, however, the high IQ children showed a rapid increase in cortical thickness, overtaking the other children and peaking at age 11-12 before slowly declining to about the same level as the others. The researchers concluded

"'Brainy' children are not cleverer solely by virtue of having more or less grey matter at any one age. Rather, intelligence is related to dynamic properties of cortical maturation."

Of course, the relation between genes and cortical maturation need not be direct. Higher IQ children may act differently in the world and elicit different reactions from others, which in turn sculpts their brains. It has long been known that experience influences cortical thickness. Regardless of the causes of these findings, these results are fascinating and demonstrate the plasticity of human intelligence, especially among adolescence. A recent study which has been garnering a lot of media attention further illustrates this point.

Sue Ramsden at University College London and her colleagues took a batch of 33 healthy adolescents (aged 12-16), with a wide mix of abilities. She tested their IQ in 2004 and then again 3-4 years later. During each test session, each child had their brains scanned using fMRI. Neither the participants nor their parents had a clue that they would be tested again. Consistent with earlier research, scores changed quite a bit from one testing session to the next. Thirty-three percent of the participants showed a clear change in their total IQ score. To highlight the range: One participant showed an increase in IQ score by 21 points, whereas another showed a decrease of 18 points. These are dramatic changes!

The researchers weren't just interested in test score changes, but were also interested in whether the changes were meaningfully reflected in brain structure. If they could link their changes to brain structure, then it would suggest these IQ fluctuations aren't merely the result of "measurement error." Indeed, they found that changes in the verbal portions of the IQ test (e.g., vocabulary, verbal comprehension) were related to changes in grey matter density and volume in the left motor cortex a region that is known to be activated by the articulation of speech. Changes in the non-verbal portions of the IQ test (putting blocks and pictures together in their proper arrangement, completing pictures appropriately) were related to to grey matter density in the anterior cerebellum a region that is known to be activated by motor movements of the hand. Interestingly, the grey matter changes that were associated with verbal and non-verbal IQ changes were not associated with regions normally found to be associated with IQ (frontal and parietal regions). Their results suggest that particular forms of intelligence (but not overall IQ scores) are reliant, at least in part, on sensorimotor skills and that such fluctuations aren't purely the result of 'measurement error'. According to the researchers,

"The implications of our present findings is that an individual's strengths and weaknesses in skills relevant to education and employment are still emerging or changing in the teenage years."

I have a few quibbles. It was a small sample, it's not clear that the tests they administered were age-appropriate for all of their participants, and some of the high-IQ children tested at the first time point may have found the test too easy (showing 'ceiling effects'). Future research should look at larger samples, using a number of different tests, on a wider range of ages. It remains to be seen if the same levels of plasticity are evident among older populations.

At any rate, it's a neat little study and contrary to an article in the Gardien, which stated that the study "contradicts a long-standing view of intelligence as fixed", the study is actually quite consistent with what IQ researchers have been finding for over 50 years! No sensible IQ researcher would say that intelligence is fixed. Anyone who does tell you that is a nut job.

In fact, leading IQ test makers fully acknowledge that people don't have "an" IQ. That's why they are increasingly moving away from a focus on total IQ scores to observing how children behave on the different sections of the test. As Alan S. Kaufman (no relation), an IQ test pioneer, notes in his excellent book "IQ Testing 101":

"Ultimately, IQ tests are not about numbers they're about people . People who are given an IQ test are evaluated for a reason. No one has ever been referred for testing because of terminal niceness or because someone said, 'This person is so incredibly normal -- you've just got to test her.' When there's a test, there's usually a real-life question to be answered, sometimes a dilemma, which demands attention and intervention . Whatever the nature of the problem, it can't be solved by computing a global IQ. An intelligent, aware, knowledgable clinician is an even more important tool than the test itself -- an astute observer who treats the global IQs as often the least important outcomes of the evaluation."

Many modern IQ tests have this intelligent testing approach built right into the test. One of the most widely administered IQ tests, the Wechsler Intelligence Scale for Children, Fourth Edition (WISC-IV) and the Wechsler Adult Intelligence Scale, Fourth Edition (WAIS-IV) include process scores (based on Edith Kaplan's Boston process approach), which allow the clinician to gain insight into the processes that may lead a child to get a problem wrong. The latest edition of the WISC also includes a companion that allows the clinician to qualitatively better understand why the child is responding in a particular way to the test items. Other modern IQ tests, such as the Kaufman Assessment Battery for Children, Second Edition also include qualitative indicators (QIs) built in, which guide the examiner's observations of the child during the testing session. As Alan notes,

"The important lessons here are that IQ tests are built based on clinical observations, they offer far more to the skilled examiner than a bunch of test scores, and a psychologist's experience with a test is an invaluable commodity that cannot be overlooked."

The bottom line here is that intelligence was never, and will never, be fixed at birth. Be very skeptical of any media report that argues that a new study overturns research showing that it is. The development of intelligence is one of the most fascinating, and important, research topics in psychology (at least, I think so!). Every child enters the testing session for a reason, and every child has his or her own unique constellation of traits and life experiences. The key is not to determine that child's one "true" IQ score, but to discover as much as possible about that child in order to help him or her flourish.


Race and Intelligence: ‘The Bell Curve’ 20 Years Later

20 years after its initial publication, La courbe en cloche co-author Charles Murray is revisiting his book’s troubling arguments about race and IQ. Mais La courbe en cloche is part of a much longer history of arguments about race and intelligence, critically rooted in early scientific racism and later, the eugenics movement. We revisit this history and its implications for Murray’s familiar brand of modern scientific racism.

Racial hierarchies have long relied on assumptions that (1) races are biologically distinct and differentiable categories, and (2) that these races differ in important physical, behavioral, and intellectual capacities. Early iterations of scientific racism, such as the influential 1854 book Types of Mankind (authored by Josiah Clark Nott and George Robins Gliddon), argued for an evolutionary ladder of humankind that positioned Europeans at the top and blacks (caricatured as physically and behaviorally similar to the Great Apes) at the bottom.

50 years later, eugenicists offered a uniquely modern take on the question of race and intelligence through the use of “standardized” intelligence test, such as the Stanford-Binet test, the predecessor to the modern IQ test. The results of these seemingly “objective” tests allowed eugenicists to deploy hard data in support of their theories of racial superiority/inferiority. Similar tests were also used to “diagnose” intellectual disability, with test results leading to the exclusion of “mentally inferior” immigrants, and mass institutionalization and sterilization of “feebleminded” individuals.

Number of US Army officers showing “superior or very superior” intelligence by race and country of origin. From testimony given by ERO superintendent Harry Laughlin to the House of Representatives during hearings on immigration restriction, March 1924. Widely circulated “imbecile scale” from the 1920s and 30s. Each “step” was defined by a “mental age” determined by performance on the Stanford-Binet test. Sample Binet test, c. 1921. From the Image Archive on the American Eugenics Movement. Lecture draft: “Do races differ in mental capacity?” By ERO Director Charles B. Davenport, n.d.

Today similar arguments about race and intelligence continue to be redeployed. Famously, 1994’s La courbe en cloche and Nicholas Wade’s recent book A Troublesome Inheritance: Genes, Race, and Human History argued that the supposed “fact” of racial differences in intelligence (as measured by IQ tests) necessitated societal reckoning, regardless of political correctness.

In a Q+A marking the 20 year anniversary of La courbe en cloche, co-author Charles Murray stood stoically by the book’s pronouncements:

“There is a mean difference in black and white scores on mental tests, historically about one standard deviation in magnitude on IQ tests (IQ tests are normed so that the mean is 100 points and the standard deviation is 15). This difference is not the result of test bias, but reflects differences in cognitive functioning.”

Murray goes on to argue that academia has silenced conversations about racial differences in intelligence due to “political correctness,” which he likens to “corruption.”

But critics like author Stephen Murdoch (IQ: The Brilliant Idea That Failed) have long questioned the very existence of a measurable “general intelligence” that IQ tests purport to measure:

“The theory of general intelligence is the very foundation of mainstream intelligence testing over the past century, but even the most ardent proponents of g (general intelligence) will admit that it has not been unquestionably established… Until there is proof beyond statistical relationships of g‘s existence and measurability, society should not treat IQ tests as if they can meaningfully rank people along a continuum of innate intelligence. For the same reason, all inferences based on IQ test results about race differences are dangerously unfounded.” – QI, pp. 229

How do we define intelligence – let alone measure it? From a historical perspective, it seems proponents of standardized testing have been less interested in the objective answers than in testing’s usefulness in reconstructing tired hierarchies of humankind.


WHY MEASURE INTELLIGENCE?

The value of IQ testing is most evident in educational or clinical settings. Children who seem to be experiencing learning difficulties or severe behavioral problems can be tested to ascertain whether the child’s difficulties can be partly attributed to an IQ score that is significantly different from the mean for her age group. Without IQ testing—or another measure of intelligence—children and adults needing extra support might not be identified effectively. In addition, IQ testing is used in courts to determine whether a defendant has special or extenuating circumstances that preclude him from participating in some way in a trial. People also use IQ testing results to seek disability benefits from the Social Security Administration. While IQ tests have sometimes been used as arguments in support of insidious purposes, such as the eugenics movement (Severson, 2011), the following case study demonstrates the usefulness and benefits of IQ testing.

Candace, a 14-year-old girl experiencing problems at school, was referred for a court-ordered psychological evaluation. She was in regular education classes in ninth grade and was failing every subject. Candace had never been a stellar student but had always been passed to the next grade. Frequently, she would curse at any of her teachers who called on her in class. She also got into fights with other students and occasionally shoplifted. When she arrived for the evaluation, Candace immediately said that she hated everything about school, including the teachers, the rest of the staff, the building, and the homework. Her parents stated that they felt their daughter was picked on, because she was of a different race than the teachers and most of the other students. When asked why she cursed at her teachers, Candace replied, “They only call on me when I don’t know the answer. I don’t want to say, ‘I don’t know’ all of the time and look like an idiot in front of my friends. The teachers embarrass me.” She was given a battery of tests, including an IQ test. Her score on the IQ test was 68. What does Candace’s score say about her ability to excel or even succeed in regular education classes without assistance?


Specification of the normal distribution [ edit | modifier la source]

There are various ways to specify a random variable. The most visual is the probability density function (plot at the top), which represents how likely each value of the random variable is. The cumulative distribution function is a conceptually cleaner way to specify the same information, but to the untrained eye its plot is much less informative (see below). Equivalent ways to specify the normal distribution are: the moments, the cumulants, the characteristic function, the moment-generating function, and the cumulant-generating function. Some of these are very useful for theoretical work, but not intuitive. See probability distribution for a discussion.

All of the cumulants of the normal distribution are zero, except the first two.

Probability density function [ edit | modifier la source]

Probability density function for 4 different parameter sets (green line is the standard normal)

The probability density function of the distribution normale with mean et l'écart (equivalently, standard deviation ) is an example of a Gaussian function,

If a random variable /> has this distribution, we write />

. Si et , the distribution is called the standard normal distribution and the probability density function reduces to

The image to the right gives the graph of the probability density function of the normal distribution various parameter values.

Some notable qualities of the normal distribution:

  • The density function is symmetric about its mean value.
  • The mean is also its mode and median.
  • 68.268949% of the area under the curve is within one standard deviation of the mean.
  • 95.449974% of the area is within two standard deviations.
  • 99.730020% of the area is within three standard deviations.
  • 99.993666% of the area is within four standard deviations.
  • The inflection points of the curve occur at one standard deviation away from the mean.

Cumulative distribution function [ edit | modifier la source]

Cumulative distribution function of the above pdf

The cumulative distribution function (cdf) is defined as the probability that a variable /> has a value less than or equal to />, and it is expressed in terms of the density function as

The standard normal cdf, conventionally denoted , is just the general cdf evaluated with et ,

The standard normal cdf can be expressed in terms of a special function called the error function, as

The inverse cumulative distribution function, or quantile function, can be expressed in terms of the inverse error function:

This quantile function is sometimes called the probit function. There is no elementary primitive for the probit function. This is not to say merely that none is known, but rather that the non-existence of such a function has been proved.

Values of Φ(X) may be approximated very accurately by a variety of methods, such as numerical integration, Taylor series, or asymptotic series.

Generating functions [ edit | modifier la source]

Moment generating function [ edit | modifier la source]

The moment generating function is defined as the expected value of . For a normal distribution, it can be shown that the moment generating function is

 
 

as can be seen by completing the square in the exponent.

Characteristic function [ edit | modifier la source]

The characteristic function is defined as the expected value of />, where /> is the imaginary unit. For a normal distribution, the characteristic function is

 
 

The characteristic function is obtained by replacing /> with /> in the moment-generating function.


Why does IQ have a truncated normal distribution? - Psychologie

The OLS regression is a widely applied technique, and many variants of the classical regression exist. Among them, are the tobit and truncated regressions. Their use is recommended when the dependent (Y) variable is constrained in some ways. Both have a common feature. The Y variable is treated as latent variable (denoted Y*) rather than observed variable. This raises several complications compared to the classical OLS.

I decided to cover this topic because I have applied this kind of analysis in my paper on the black-white score changes in the GSS Wordsum test. These techniques are not available in SPSS. One reason may be that these techniques are applied mainly by economists (who use mainly Stata), not by psychologists (who use mainly SPSS and may not be even aware of these techniques). However, the problem raised by data censoring and data truncation is also relevant in the field of psychology.

The tobit (or censored) regression is proposed for a dependent variable censored either at the lower end or the upper end of its distribution. Or both. Censoring is essentially a problem of floor and ceiling effects. For instance, some individuals are stacked at a certain threshold value (τ) because they cannot have a higher or lower score on the variable. This may be due to difference causes the test may be too easy or too difficult. But censoring can take on another form. An income variable may have been coded into categories, e.g., $10,000-$20,0000, etc. …, but then at the very end, our last category may be something like “$100,000 and above”. In this case, the variable is censored at the upper end. As mentioned earlier, it is possible to have a data censored at both end, and in this case, we are specifying a two-limit tobit regression (by setting the value for lower and upper censored values) see Long (1997, pp. 212-213) for a development. For instance, in insurance coverage, there is a minimum coverage, a maximum coverage, and values in between.

The truncated regression is proposed for a dependent variable for which its distribution is not representative of the entire population. Truncation is essentially a problem of range restriction (although it is inaccurate to equalize truncation with range restriction). For instance, the data may have been collected for people having purchased durable goods. But people who did not purchase these goods due to, e.g., their price levels, are thus said to be truncated from below (instead of above). This is not to say that OLS is necessarily biased. It depends on the goal of the analysis. If we are interested in the value of Y for the entire population, OLS is biased. But if we are merely interested in our subsample, the OLS is sufficient (see the Stata manual). However, we must be aware that when we omit a portion of the data in this manner, the truncated data points are also missing not at random (because the value of Y for truncated and untruncated observations is different).

A graphical representation of censoring and truncation is given by Long (1997) :

In Panel A is the “latent” variable Y* that tobit and truncated regressions are trying to estimate (based on the set of independent variables). In censoring, the observations are censored and stacked at zero when τ=1. But, for truncation, the obervations literally disappear when they are below (or equal to) the threshold value τ=1.

Both techniques use maximum likelihood (ML) to estimate the effect of the changes in independent variables (Xs) on the expected (i.e., “potential”) value of the dependent variable (Y) given a gaussian (i.e., normal) distribution. Because the expected value of the dependent variable is latent (i.e., not observed), it is not possible to obtain standardized coefficients, unless we apply a special procedure (Long, 1997, pp. 207-208).

As for tobit, the technique allows a decomposition of the effect of X on the latent Y (i.e., the tobit coefficient) into two parts : the change in the probability of being above the censored value multiplied by the expected value of Y if above plus the change in the expected Y for the cases above the censored value multiplied by the probability of being above the censored value (McDonald & Moffitt, 1980). Mathematically, the latent Y* variable in tobit model is given by :

δEy/δXi = F(z) x (δEy*/δXi) + Ey* x (δF(z)/δXi)

where F(z) is the proportion of cases (i.e., probability) being above the threshold, δEy*/δXi is the change in the expected value of Y for cases above the threshold associated with an independent variable, δF(z)/δXi is the change in the probability of being above the threshold associated with an independent variable.

Long (1997, p. 196) presents the formula in a more intuitive way :

E(y) = [Pr(Uncensored) x E(y|y>τ)] + [Pr(Censored) x E(y|y=τoui)]

Pr for probability, E(y) for expected y, and | y>τ for conditional on y above τ, and τoui is the value of y if y* is censored (in Long’s book (see p.197) at least).

If we are only interested in the changes of the Xs on the latent Y, the coefficients obtained from tobit regression can be interpreted in the same way as those obtained from OLS regression (Roncek, 1992).

The formula for truncated regression can be found in Long (1997, p. 194) and in the Stata manual for truncreg function.

We haven’t provided a detailed answer of why OLS is inconsistent with truncated data when our interest focuses on the population estimates. One crucial assumption of OLS regression is the independence of the errors (residuals). The residuals must have mean zero and be uncorrelated with all explanatory variables. The problem here is that truncated data causes the sample selection (s) to be correlated with the error term (u). Wooldridge (2012, pp. 616-617) provides an example with a selection indicator s, i.e., s=1 if we observe all of the data or s=0 otherwise, where s=1 if the Ychapeau is lower or equal to the threshold (considering that the data is truncated from above). Equivalently, s=1 if u≤τ-Xβ, where Xβ is a shorthand for β0 + β1X1 + β2X2, … . This means that the value of s covaries with u.

Long (1997) illustrates the consequences of censoring and truncation for OLS estimation with Figure 7.2. The solid line is given by the OLS estimate of Y that is not censored. The long dashed line, OLS with censored data, has a lower intercept and a steeper slope because of the many values set at zero (shown as triangles), just below the threshold horizontal line τ=1, that pull down the left side of the long dashed line. The short dashed line is given by an OLS estimate with data points below τ=1 being truncated (i.e., removed) instead of being censored and shows a higher intercept and smaller slope.

Figure 7.7 (page 202) also shows in a very simple manner the effects of censoring and truncation. The difference here is that the censoring data points are equal to the threshold rather than being below it. The dots below the threshold τ=2 are truncated data points. E(y*|x) in the solid line is the correct estimate. E(y|y>2|x) is given by the long dashed line. We see that the long dashed line is indistinguishable from the solid line as we move toward the right side, but the long dashed line is above the solid line as we move to the left side. This is because there are few (many) data points truncated at the right (left) side. The long dashed line becomes closer and closer to τ as we move to the left. We also see there are circles along the horizontal line τ=2. These are censored data points. The short dashed line represented by E(y|x) is slightly below the long dashed line at the left side of the x axis, because the censored cases were not eliminated.

Both types of regression require normality and homoscedastic of residuals, even in the case of tobit which always considers a censored distribution to be non-normal. But since the Y* variable is not an observable one, we cannot get our residual variable by doing Y minus Ychapeau because we have to use Y* instead of Y. In tobit regression, a complex procedure must be applied to get the generalized residuals and conduct the test of normality (Cameron & Trivedi, 2009, pp. 535-538).

A particular feature of these kinds of regressions is that a standardized coefficient is usually not reported in statistical softwares because its calculation is not straightforward. Normally, the fully standardized coefficients are obtained with the operation coeff(X)/SD(Y)*SD(X). In the case of tobit regression, Roncek (1992, p. 506) shows that the standardized tobit coefficient can be obtained by coeff(X)*f(z)/“sigma”. f(z) is the unit normal density this is (in my opinion) a complicated way of presenting the formula because one could have replaced the ambiguous f(z) by the more intuitive notation SD(X). “Sigma” is the estimated standard error of the tobit regression model (usually reported by the software) and is comparable with the estimated root mean squared error in OLS regression. But since sigma is the variance of Y* conditional on the set of X variables and that it needs not be equal to the unconditional Y* which is what we need, Long (1997, pp. 207-208) argues that the unconditional variance of Y* should be computed with the quadratic form :

where Var^(x) is the estimated covariance matrix among the x’s and σ^ε² is the ML estimate of the variance of ε. Thus, Long suggests we use the formula coeff(X)*SD(X)/σ^y*².

Even though the standardized coefficients seem usually preferred by psychologists, the economists (and particularly econometricians) dislike standardized coefficients and probably won’t recommend its use.

Finally, it should be noted that OLS is not always inconsistent with data having sample selection (Wooldridge, 2012, pp. 615-616). We will re-use his example of the s indicator of sample selection. If sample selection (s) is random in the sense that s is independent of X and u, the OLS is unbiased. But OLS remains unbiased even if s depends on explanatory X variables and additional random terms that are independent of X and u. If IQ is an important predictor but is missing for some people, such that s=1 if IQ≥v and s=0 if IQ<v, where v is an unobserved random variable that is independent of IQ, u and the other X variables, then, s is still independent of u. It is not a requirement that s is uncorrelated with X independent variables, on the condition that X variables are uncorrelated with u because it implies that the product of s and X must also be uncorrelated with the residuals u.


WAIS-III [ edit | modifier la source]

The WAIS-III was published in 1997. It provided scores for Verbal IQ, Performance IQ, and Full Scale IQ, along with four secondary indices (Verbal Comprehension, Working Memory, Perceptual Organization, and Processing Speed).

Verbal IQ (VIQ) [ edit | modifier la source]

Included seven tests and provided two subindexes verbal comprehension and working memory.

The Verbal comprehension index included the following tests:

The Working memory index included:

The seventh test comprehension was not included in any index

Performance IQ (PIQ) [ edit | modifier la source]

Included seven tests and it also provided two subindexes perceptual organization and processing speed.

The Perceptual organization index included:

The Processing speed index included:

Two tests Picture Arrangement and Object Assembly were not included in the indexes


Statistics Show IQ Disparities Between Races. Here's What That Really Means

Why is African IQ so low compared to Asians and whites? est apparu à l'origine sur Quora : l'endroit pour acquérir et partager des connaissances, permettant aux gens d'apprendre des autres et de mieux comprendre le monde.

First a disclaimer: There is no such thing as biological race it is a social invention. Mais racism is very real, so that a people’s health status tends to reflect the race to which they are perceived as belonging. For practical purposes I write as if race is real to facilitate communication, but it is not.

Oui. there are differences in measured IQ between various ‘races’. But what if anything do these differences mean? One cannot accurately and meaningfully compare scores of people with differing experiences health status and educational opportunities ( see the answer to the question Why is African IQ so low compared to Asians and whites? below).” If IQ tests are being used to compare individuals of wildly different backgrounds, then the variable of innate intelligence is not being tested in isolation. Instead, the scores will reflect some impossible-to-sort-out combination of ability and differences in opportunities and motivations,” [i] writes Brink Lindsey. Moreover, IQ is not a measure of inherited, permanent, unvarying intellectual potential. Although it is often discussed as if it is. It does measure, albeit imperfectly, how well one has mastered certain intellectual skills such as literacy and the ability to analyze and use basic math. People who do this less well than others may have intellectual deficits or they may be suffering from poor educational exposure, trauma, poisoning or even from poverty. So IQ is a useful metric for perceiving such limitations, but NOT for discerning that one has a genetic or permanent intellectual decrease: unfortunately it is routinely interpreted in this manner to claim the innately lower intelligence of dark-skinned people.

In evaluating the claims by hereditarians with known racist ties of higher white and Asian IQ, we must be mindful of a tendency called the ‘Pygmalion effect’ The high intellectual achievement and IQs of whites and Asians may owe something to this. In a classic 1960 experiment, California teachers were informed that as a result ofIQ test scores, certain students of theirs were found to be “special,” with prodigious potential and the expectation of intellectual greatness. Accordingly, the grades of the children labeled “special” improved dramatically, and, when tested a year later, half of their IQ scores had risen by 20 points. In fact, these children had been chosen at random, and the improvements in their scores served to demonstrate the outsize role that teachers’ expectations can play in a student’s academic success.

Also, in 2005 we saw an example of this effect when Broward County Department of Education which had formerly assigned children to normal, remedial or gifted classrooms solely according to their teachers’ assessments, began administering standardized tests to all second graders.

The number of gifted African American children in the district soared 80 percent, and that of gifted Hispanic children immediately skyrocketed 130 percent. Shortly thereafter, the policy shift resulted in a tripling of both black and Hispanic “gifted” students.

None of the students’ genes had changed.

It’s worth noting that some point to the fact that some Asian populations, not whites, are accorded the highest scores and point to the fact to counter accusations of racism. However not all Asians are accorded high scores, and the higher scores are use to reinforce the model minority myth— and to demonize Asians. Frank Wu who wrote Yellow: Race in America Beyond Black and White points out that “Asian Americans are brought into the discussion only for the purpose of berating blacks and Hispanics.” He also notes that the high IQ scores and intelligence accorded Asians is also subtly turned against them to characterize them as lacking creativity and as unfair competitors who are clannish and unwilling to assimilate. Meanwhile the gap between white and Asian IQs continues to grow, with Asians outstripping the growth of whites’ IQs. The average gap between African American and white IQs is narrowing, which some ascribe to greater access to higher education but more study is needed to understand it.

[i] Brink Lindsey, “Why People Keep Misunderstanding the ‘Connection’ between Race and IQ,” L'Atlantique, May 15, 2013, Why People Keep Misunderstanding the 'Connection' between Race and IQ

Cette question est apparu à l'origine sur Quora - l'endroit pour acquérir et partager des connaissances, permettant aux gens d'apprendre des autres et de mieux comprendre le monde. You can follow Quora on Twitter and Facebook. Plus de questions:



Commentaires:

  1. Nasih

    Excellent message))

  2. Choovio

    Je peux recommander d'aller sur le site, où il existe de nombreux articles sur le sujet qui vous intéressent.

  3. Rhett

    Phrase plutôt précieuse

  4. Perry

    Exactement! C'est l'excellente idée. Je le garde.

  5. Kuhlbert

    N'est certainement pas présent.

  6. Sheron

    Je suis désolé, mais à mon avis, vous avez tort. Nous devons discuter.



Écrire un message