Informations

Pourquoi le pic DSC a-t-il une forme de cloche ?

Pourquoi le pic DSC a-t-il une forme de cloche ?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

J'étudie la calorimétrie différentielle à balayage (DSC) et je ne comprends pas vraiment pourquoi la plupart des protéines ont une forme de cloche lorsque la capacité calorifique est tracée en fonction de la température.

Aussi, j'apprécierais si vous pouviez fournir de bonnes sources sur ce sujet (livres, articles, etc.).


Ce n'est qu'une supposition, mais c'est probablement parce que la mesure de la chaleur mesure en fait la somme de très nombreuses réactions de molécules. C'est un fait des mathématiques, plutôt que des sciences naturelles, qui oblige de tels phénomènes à suivre approximativement des courbes en cloche (c'est-à-dire des fonctions gaussiennes). Fondamentalement, le théorème central limite stipule que si vous avez de nombreuses instances du même variables (aléatoires) et faites la moyenne, le résultat ressemblera à une courbe en cloche. Ici, le changement thermodynamique local induit par une seule molécule de protéine individuelle, en fonction de la température, est vraisemblablement cette variable aléatoire, puisque le comportement thermodynamique de chaque protéine est distribué à peu près de la même manière. Le caractère aléatoire provient des mouvements aléatoires essentiellement chaotiques des molécules.

Voir ici ou ici pour en savoir plus.


Pourquoi la plupart des courbes de distribution sont en forme de cloche ? Existe-t-il une loi physique qui amène les courbes à prendre cette forme ?

Tous les graphiques présentés ci-dessous proviennent de domaines d'études complètement différents et partagent néanmoins un modèle de distribution similaire.

Pourquoi la plupart des courbes de distribution en forme de cloche ? Existe-t-il une loi physique qui amène la courbe à prendre cette forme ?

Y a-t-il une explication en mécanique quantique pour que ces divers graphiques prennent cette forme ?

Y a-t-il une explication intuitive derrière pourquoi ces graphiques sont en forme de cloche ?

Voici la courbe de distribution de la vitesse de Maxwell, dans la théorie cinétique des gaz.

Voici la loi de déplacement de Wein, dans les rayonnements thermiques.

Voici la distribution de l'énergie cinétique des particules bêta dans les désintégrations radioactives.


Hauteur d'une courbe de distribution normale

Pour une courbe de distribution normale en forme de cloche, on aurait pensé que la hauteur devrait avoir une valeur idéale. Connaître cette valeur peut être un indicateur rapide pour vérifier si les données sont normalement distribuées.

Cependant, je n'ai pas pu trouver sa valeur formelle. La plupart des endroits, la forme est affichée mais pas les mesures de l'axe des y. http://www.stat.yale.edu/Courses/1997-98/101/normal.htm

Dans certains graphiques où il est mentionné, il est de 0,4. http://en.wikipedia.org/wiki/File:Normal_Distribution_PDF.svg . Mais sur la page principale (http://en.wikipedia.org/wiki/Normal_distribution), la valeur de 0,4 n'est mentionnée nulle part.

Est-ce la valeur correcte et quelle est sa base mathématique ? Merci pour votre perspicacité.

Les trois courbes montrées dans la réponse de @Glen_b et sur la page wiki (avec moyenne = 0) ont la même moyenne mais des SD différents. Tous les tests ne montreraient qu'aucune différence significative entre eux. Mais ils sont clairement issus de populations différentes. Quel test peut-on alors appliquer pour déterminer la différence des écarts types de deux distributions ?

J'ai vérifié sur le net et j'ai trouvé que c'était le test F.

Mais existe-t-il un nom spécifique pour une courbe de distribution similaire à une courbe avec une moyenne de 0 et un écart type de 1 (et un pic à 0,4) ?

Répondu par Aleksandr Blekh dans les commentaires : "la distribution normale standard ou la distribution normale unitaire notée N(0,1)".

Cependant, il n'est pas souligné que, si les moyennes ne sont pas différentes, le test F ou le test KS (comme suggéré par Glen_b dans les commentaires) devrait être effectué pour déterminer si les écarts types sont différents, indiquant des populations différentes.


Introduction à la distribution normale (courbe en cloche)

La distribution normale est une distribution de probabilité continue qui est symétrique des deux côtés de la moyenne, de sorte que le côté droit du centre est une image miroir du côté gauche.

L'aire sous la courbe de distribution normale représente la probabilité et l'aire totale sous la courbe est égale à un.

La plupart des valeurs de données continues dans une distribution normale ont tendance à se regrouper autour de la moyenne, et plus une valeur est éloignée de la moyenne, moins elle est susceptible de se produire. Les queues sont asymptotiques, ce qui signifie qu'elles s'approchent mais ne rencontrent jamais tout à fait l'horizon (c'est-à-dire l'axe des x).

Pour une distribution parfaitement normale, la moyenne, la médiane et le mode auront la même valeur, représentée visuellement par le pic de la courbe.

La distribution normale est souvent appelée courbe en cloche parce que le graphique de sa densité de probabilité ressemble à une cloche. Il est également connu sous le nom de distribution gaussienne, d'après le mathématicien allemand Carl Gauss qui l'a décrit le premier.

Quelle est la différence entre une distribution normale et une distribution normale standard ?

Une distribution normale est déterminée par deux paramètres, la moyenne et la variance. Une distribution normale avec une moyenne de 0 et un écart type de 1 est appelée distribution normale standard.

Figure 1. Une distribution normale standard (SND).

C'est la distribution qui est utilisée pour construire les tableaux de la distribution normale.

Pourquoi la distribution normale est-elle importante ?

La courbe en forme de cloche est une caractéristique commune de la nature et de la psychologie

La distribution normale est la distribution de probabilité la plus importante en statistique, car de nombreuses données continues dans la nature et la psychologie affichent cette courbe en forme de cloche lorsqu'elles sont compilées et représentées graphiquement.

Par exemple, si nous avons échantillonné au hasard 100 personnes, nous nous attendrions à voir une courbe de fréquence de distribution normale pour de nombreuses variables continues, telles que le QI, la taille, le poids et la pression artérielle.

Les tests de signification paramétriques nécessitent une distribution normale des points de données des échantillons

Les tests statistiques (paramétriques) les plus puissants utilisés par les psychologues nécessitent une distribution normale des données. Si les données ne ressemblent pas à une courbe en cloche, les chercheurs devront peut-être utiliser un type de test statistique moins puissant, appelé statistiques non paramétriques.

Conversion des scores bruts d'une distribution normale en scores z

Nous pouvons standardiser les valeurs (scores bruts) d'une distribution normale en les convertissant en scores z.

Cette procédure permet aux chercheurs de déterminer la proportion des valeurs qui se situent dans un nombre spécifié d'écarts types par rapport à la moyenne (c'est-à-dire de calculer la règle empirique).

Probabilité et courbe normale : quelle est la formule de la règle empirique ?

La règle empirique en statistique permet aux chercheurs de déterminer la proportion de valeurs qui se situent à une certaine distance de la moyenne. La règle empirique est souvent appelée règle des trois sigma ou règle 68-95-99,7.

Si les valeurs des données dans une distribution normale sont converties en score standard (z-score) dans une distribution normale standard, la règle empirique décrit le pourcentage des données qui se situent dans des nombres spécifiques d'écarts types (σ) par rapport à la moyenne (μ) pour courbes en cloche.

La règle empirique permet aux chercheurs de calculer la probabilité d'obtenir aléatoirement un score à partir d'une distribution normale.

68 % des données se situent dans le premier écart-type par rapport à la moyenne. Cela signifie qu'il y a une probabilité de 68 % de sélectionner au hasard un score entre -1 et +1 écarts-types par rapport à la moyenne.

95 % des valeurs se situent à moins de deux écarts types par rapport à la moyenne. Cela signifie qu'il existe une probabilité de 95 % de sélectionner au hasard un score entre -2 et +2 écarts-types par rapport à la moyenne.

99,7 % des données se situeront à moins de trois écarts types par rapport à la moyenne. Cela signifie qu'il y a une probabilité de 99,7 % de sélectionner au hasard un score compris entre -3 et +3 écarts-types par rapport à la moyenne.

Comment puis-je vérifier si mes données suivent une distribution normale ?

Un logiciel statistique (tel que SPSS) peut être utilisé pour vérifier si votre ensemble de données est normalement distribué en calculant les trois mesures de tendance centrale. Si la moyenne, la médiane et le mode sont des valeurs très similaires, il y a de fortes chances que les données suivent une distribution en forme de cloche (commande SPSS ici).

Il est également conseillé d'avoir un graphique de fréquence aussi, afin de pouvoir vérifier la forme visuelle de vos données (Si votre graphique est un histogramme, vous pouvez ajouter une courbe de distribution à l'aide de SPSS : Dans les menus, choisissez : Éléments > Afficher la courbe de distribution).

Les distributions normales deviennent plus apparentes (c'est-à-dire parfaites) plus le niveau de mesure est fin et plus l'échantillon d'une population est grand.

Vous pouvez également calculer des coefficients qui nous renseignent sur la taille des queues de distribution par rapport à la bosse au milieu de la courbe en cloche. Par exemple, les tests de Kolmogorov Smirnov et Shapiro-Wilk peuvent être calculés à l'aide de SPSS.

Ces tests comparent vos données à une distribution normale et fournissent une valeur p qui, si elle est significative (p < .05) indique que vos données sont différentes d'une distribution normale (ainsi, à cette occasion, nous ne voulons pas de résultat significatif et avons besoin d'un p-valeur supérieure à 0,05).

Comment référencer cet article :

Comment référencer cet article :

McLeod, S.A. (2019, 28 mai). Introduction à la distribution normale (courbe en cloche). Simplement de la psychologie : https://www.simplypsychology.org/normal-distribution.html

Ce travail est sous licence Creative Commons Paternité-Pas d'Utilisation Commerciale-Pas de Modification 3.0 Unported.

Numéro d'enregistrement de la société : 10521846


9 exemples réels de distribution normale

La distribution normale est largement utilisée pour comprendre les distributions des facteurs dans la population. Parce que la distribution normale se rapproche si bien de nombreux phénomènes naturels, elle est devenue une norme de référence pour de nombreux problèmes de probabilité.

La distribution normale/gaussienne est un graphique en forme de cloche qui englobe deux termes de base : moyenne et écart type. Il s'agit d'un arrangement symétrique d'un ensemble de données dans lequel la plupart des valeurs se regroupent dans la moyenne et les autres diminuent symétriquement vers l'un ou l'autre des extrêmes. De nombreux facteurs génétiques et environnementaux influencent le caractère.

Théorème central limite

La distribution normale suit la théorie de la limite centrale qui stipule que divers facteurs indépendants influencent un trait particulier. Lorsque tous ces facteurs indépendants contribuent à un phénomène, leur somme normalisée tend à aboutir à une distribution gaussienne.

Courbe normale

La moyenne de la distribution détermine l'emplacement du centre du graphique, et l'écart type détermine la hauteur et la largeur du graphique et l'aire totale sous la courbe normale est égale à 1.

Comprenons les exemples de la vie quotidienne de la distribution normale.

1. Hauteur

La taille de la population est l'exemple de la distribution normale. La plupart des personnes d'une population spécifique sont de taille moyenne. Le nombre de personnes plus grandes et plus petites que la taille moyenne des personnes est presque égal, et un très petit nombre de personnes sont soit extrêmement grandes, soit extrêmement petites. Cependant, la taille n'est pas une caractéristique unique, plusieurs facteurs génétiques et environnementaux influencent la taille. Par conséquent, il suit la distribution normale.

2. Lancer un dé

Un bon lancer de dés est également un bon exemple de distribution normale. Dans une expérience, il a été constaté que lorsqu'un dé est lancé 100 fois, les chances d'obtenir 𔃱’ sont de 15 à 18% et si nous lançons les dés 1000 fois, les chances d'obtenir 𔃱’ sont, encore une fois, le même, qui est en moyenne de 16,7% (1/6). Si on lance deux dés simultanément, il y a 36 combinaisons possibles. La probabilité de lancer 𔃱’ (avec six combinaisons possibles) est à nouveau en moyenne d'environ 16,7%, c'est-à-dire (6/36). Plus le nombre de dés sera plus élaboré sera le graphe de distribution normal.

3. Lancer une pièce

Lancer une pièce est l'une des plus anciennes méthodes de règlement des différends. Nous avons tous lancé une pièce avant un match ou un match. L'équité perçue de lancer une pièce réside dans le fait qu'elle a des chances égales d'obtenir l'un ou l'autre résultat. Les chances d'obtenir la tête sont de 1/2, et il en est de même pour les queues. Lorsque nous ajoutons les deux, cela équivaut à un. Si nous lançons des pièces plusieurs fois, la somme de la probabilité d'obtenir pile et face restera toujours 1.

4. QI

Dans ce scénario de concurrence croissante, la plupart des parents, ainsi que les enfants, souhaitent analyser le niveau du quotient intelligent. Eh bien, le QI d'une population particulière est une courbe de distribution normale où le QI de la majorité des personnes de la population se situe dans la plage normale tandis que le QI du reste de la population se situe dans la plage déviée.

5. Marché boursier technique

La plupart d'entre nous ont entendu parler de la hausse et de la baisse des prix des actions en bourse.

nos parents ou dans les nouvelles sur la chute et la hausse du prix des actions. Ces changements dans les valeurs logarithmiques des taux de change, des indices de prix et des cours boursiers forment souvent une courbe en forme de cloche. Pour les rendements boursiers, l'écart type est souvent appelé volatilité. Si les rendements sont normalement distribués, plus de 99 % des rendements devraient se situer dans les écarts de la valeur moyenne. De telles caractéristiques de la distribution normale en forme de cloche permettent aux analystes et aux investisseurs de faire des déductions statistiques sur le rendement et le risque attendus des actions.

6. Répartition des revenus dans l'économie

Les revenus d'un pays sont entre les mains d'une politique et d'un gouvernement durables. Cela dépend d'eux de la façon dont ils répartissent les revenus entre les riches et les pauvres. Nous sommes tous bien conscients du fait que la population de la classe moyenne est un peu plus élevée que la population riche et pauvre. Ainsi, les salaires de la population de la classe moyenne font la moyenne dans la courbe de distribution normale.

7. Pointure

Vous êtes-vous déjà demandé ce qui se serait passé si la pantoufle de verre laissée par Cendrillon dans la maison du prince était adaptée aux pieds d'une autre femme ? Il aurait fini par épouser une autre femme. C'est l'une des hypothèses amusantes que nous avons tous rencontrées. Selon les données collectées aux États-Unis, les ventes de chaussures pour femmes par taille sont normalement réparties car la composition physique de la plupart des femmes est presque la même.

8. Poids à la naissance

Le poids normal à la naissance d'un nouveau-né varie de 2,5 à 3,5 kg. La majorité des nouveau-nés ont un poids de naissance normal alors que seul un petit pourcentage de nouveau-nés ont un poids supérieur ou inférieur à la normale. Par conséquent, le poids à la naissance suit également la courbe de distribution normale.

9. Rapport moyen des étudiants

De nos jours, les écoles font la publicité de leurs performances sur les réseaux sociaux et à la télévision. Ils présentent le résultat moyen de leur école et incitent les parents à inscrire leur enfant dans cette école. Les autorités scolaires trouvent la performance académique moyenne de tous les élèves et, dans la plupart des cas, elle suit la courbe de distribution normale. Le nombre d'étudiants intelligents moyens est plus élevé que la plupart des autres étudiants.


Fond

Les réseaux biochimiques ont une structure modulaire [1]. Les modules fonctionnels ont des propriétés dynamiques et d'entrée-sortie différentes [2, 3]. Par exemple, les boucles de rétroaction positives peuvent produire de la bistabilité tandis que les boucles de rétroaction négatives filtrent le bruit. Un module biochimique important dans la signalisation cellulaire est un cycle de phosphorylation-déphosphorylation (PDC). La phosphorylation est une modification covalente post-traductionnelle courante des protéines et des lipides, qui est médiée par des kinases et a besoin d'ATP pour se poursuivre. Cependant, la déphosphorylation est médiée par les phosphatases et n'a pas besoin d'ATP pour se poursuivre. La phosphorylation peut affecter les propriétés de liaison, la localisation et l'activité des protéines et des récepteurs [4].

Les systèmes avec des cycles de phosphorylation-déphosphorylation peuvent présenter une variété de comportements d'entrée-sortie ou de dose-réponse [5]. Le niveau de substrat phosphorylé à l'état d'équilibre est contrôlé par l'équilibre kinase-phosphatase (KPB), c'est-à-dire le rapport de la concentration totale de kinase active à la concentration de phosphatase active. Si les enzymes sont loin de la saturation, le niveau de substrat phosphorylé est une fonction graduée du KPB. Cependant, si les enzymes sont saturées et fonctionnent en régime d'ordre zéro, une réponse ultrasensible de type commutateur est obtenue où un petit changement dans le KPB peut produire un grand changement dans le niveau de substrat phosphorylé [6]. De petites modifications de la structure de ces modules biochimiques, telles que l'introduction de la coopérativité ou l'inhibition du produit, peuvent affecter de manière significative leurs propriétés dynamiques [7, 8]. Des cascades de cycles de phosphorylation-déphosphorylation telles que les cascades de MAP kinases produisent également une ultrasensibilité et une amplification [5]. La phosphorylation de protéines multisite avec mécanisme de distribution peut produire une ultrasensibilité robuste [9]-[11]. Les systèmes avec plusieurs sites de phosphorylation peuvent présenter des propriétés dynamiques supplémentaires, notamment la multistabilité [12, 13]. La phosphorylation multisite peut également entraîner une ultrasensibilité robuste en dehors du régime d'ordre zéro par saturation locale [14, 15]. De plus, l'ordre et la distributivité de la phosphorylation affectent les propriétés de réponse du système [4].

Au cours du trafic endosome, les molécules de marquage qui spécifient l'identité et le sort des différentes vésicules doivent être étroitement régulées dans le temps. Deux classes de molécules qui ont un rôle fondamental en tant que marqueurs moléculaires dans le trafic membranaire sont les petites GTPases et les phosphopinositides (PI) [16]. Les IP sont un type de phospholipides cellulaires qui peuvent subir des cycles de phosphorylation-déphosphorylation. Bien que les IP soient présents en abondance relativement faible, ils jouent un rôle important dans la régulation cellulaire et le trafic membranaire [17, 18]. En particulier, les IP peuvent être phosphorylés aux positions 3, 4 et 5 de leur groupe de tête inositol, par le biais de kinases et de phosphatases spécifiques aux organites [17, 18]. Fait intéressant, plusieurs paires antagonistes de kinases et de phosphatases régulant la phosphorylation dans les IP forment des complexes (Figure 1). Étant donné que ces paires de complexes kinase-phosphatase ont des effets opposés, la formation de ce type de complexes entre eux est déroutante et leur signification fonctionnelle n'est pas claire. Par exemple, la kinase Vps34 génère PI(3)P sur les endosomes en phosphorylant la troisième position du groupe de tête PI inositol et est régulée par la protéine kinase Vps15 [19]. Cao et al. [20, 21] ont démontré que le sous-complexe Vps34-Vps15 pouvait également interagir in vivo et in vitro avec l'antagoniste direct des phosphatases MTM1 et MTMR2, où Vps15 médie l'interaction entre le Vps34 et les isoformes de la myotubularine.

Complexes kinase-phosphatase. Complexes kinase-phosphatase identifiés ou supposés dans le système de régulation PI. La ligne pleine représente in vivo et ligne pointillée in vitro preuve. Les données sont basées sur la référence [22].

Un autre exemple de paire antagoniste kinase-phosphatase chez la levure et les mammifères est la Fab1 PI(5)P 5-kinase (également appelée PIP5K3 ou 'PIKfyve') et la Fig4 PI(3,5)P25-phosphatase (également appelée Sac3) [23]-[25]. De plus, l'existence de deux nouveaux complexes kinase-phosphatase jouant un rôle dans la régulation de PI(5)P a également été émise [22]. En particulier, il a été proposé qu'un complexe PIK3C (classe I PI 3-kinase) et myotubularine régule l'interconversion entre PI(3,5)P2 et PI(5)P [22].On en sait moins sur les 4-kinases PIP5K2 et PI(4,5)P2 4-phosphatases qui régulent l'interconversion entre PI(4,5)P2 et PI(5)P, cependant, l'existence d'un complexe kinase-phosphatase correspondant a également été spéculée [22]. Les paires kinase-phosphatase identifiées et hypothétiques sont résumées à la figure 1. En résumé, il existe de plus en plus de preuves qu'un certain nombre de kinases et de phosphatases peuvent former un complexe, mais le rôle exact d'un tel duo kinase-phosphatase reste à étudier. 26]. De plus, il existe des preuves que ce type de formation complexe est conservé au cours de l'évolution, ce qui suggère une signification fonctionnelle [22]. Une modélisation mathématique appropriée peut éclairer les rôles fonctionnels de ces complexes.

Dans cet article, nous utilisons la modélisation mathématique pour étudier la dose-réponse dans un cycle de phosphorylation-déphosphorylation prolongé qui comprend la formation d'un complexe entre la kinase et la phosphatase. En particulier, nous demandons dans quelles conditions les PDC peuvent présenter une dose-réponse non monotone. À cette fin, nous revisitons d'abord le PDC de base (Figure 2a) et montrons qu'en fonction des paramètres du système, il est possible de n'obtenir qu'une phosphorylation partielle du substrat même pour les grands KPB. Nous utilisons ensuite ces résultats pour affiner les estimations de l'ultrasensibilité d'ordre zéro. Nous montrons en outre qu'à un équilibre kinase-phosphatase fixe, si nous modifions les niveaux de substrat, il est possible d'obtenir une dose-réponse en forme de cloche non monotone. Cependant, ce comportement n'est obtenu que sur une plage étroite de paramètres.

Diagrammes de réactions. (une) Diagramme de réaction pour le modèle de base du cycle de phosphorylation-déphosphorylation. (b-e) Diagrammes de réaction pour le modèle étendu avec formation de complexe kinase-phosphatase. Le complexe peut avoir une activité kinase et/ou phosphatase. Les lettres grises du nom du complexe enzymatique correspondent aux enzymes inactives. Il existe quatre variantes du modèle étendu avec complexe enzymatique ayant à la fois inactif K et P (b), actif P et inactif K (c), actif K et inactif P () et tous deux actifs K et P (e).

Pour étudier les propriétés de la PDC avec formation de complexe, nous devons supposer l'activité enzymatique du complexe kinase-phosphatase. Ainsi, nous étudions quatre variantes différentes du module PDC étendu, où le complexe présente une activité kinase et/ou phosphatase (Figure 2b-e). Nous observons que le module peut produire une réponse ultrasensible en dehors du régime d'ordre zéro. De plus, nous observons des doses-réponses non monotones en forme de cloche robustes dans une variante du module où le complexe a une activité phosphatase. Enfin, nous discutons de nos résultats dans le contexte de la régulation des PI et du trafic d'endosomes.


Contenu

La courbe en cloche, publié en 1994, a été écrit par Richard Herrnstein et Charles Murray pour expliquer les variations de l'intelligence dans la société américaine, avertir de certaines conséquences de cette variation et proposer des politiques sociales pour atténuer les pires des conséquences. Le titre du livre vient de la distribution normale en forme de cloche des scores de quotient intellectuel (QI) dans une population.

Présentation Modifier

Le livre commence par une introduction qui évalue l'histoire du concept d'intelligence de Francis Galton aux temps modernes. L'introduction par Spearman du facteur général de l'intelligence et d'autres avancées précoces dans la recherche sur l'intelligence sont discutées avec une considération des liens entre les tests d'intelligence et la politique raciale. Les années 1960 sont identifiées comme la période de l'histoire américaine où les problèmes sociaux étaient de plus en plus attribués à des forces extérieures à l'individu. Cet ethos égalitaire, soutiennent Herrnstein et Murray, ne peut pas s'adapter aux différences individuelles biologiquement fondées. [1]

L'introduction énonce six des hypothèses des auteurs, qu'ils prétendent être « au-delà d'un différend technique important » : [2]

  1. Il existe une telle différence en tant que facteur général de capacité cognitive sur lequel les êtres humains diffèrent.
  2. Tous les tests standardisés d'aptitude ou de réussite académiques mesurent ce facteur général dans une certaine mesure, mais les tests de QI expressément conçus à cette fin le mesurent de la manière la plus précise.
  3. Les scores de QI correspondent, au premier degré, à tout ce que les gens veulent dire lorsqu'ils utilisent le mot intelligent, ou intelligent dans le langage ordinaire.
  4. Les scores de QI sont stables, bien que pas parfaitement, pendant une grande partie de la vie d'une personne.
  5. Les tests de QI correctement administrés ne sont manifestement pas biaisés contre les groupes sociaux, économiques, ethniques ou raciaux.
  6. La capacité cognitive est essentiellement héréditaire, apparemment pas moins de 40 pour cent et pas plus de 80 pour cent.

À la fin de l'introduction, les auteurs mettent le lecteur en garde contre le sophisme écologique consistant à déduire des choses sur des individus sur la base des données agrégées présentées dans le livre. Ils affirment également que l'intelligence n'est qu'un des nombreux attributs humains précieux et dont l'importance parmi les vertus humaines est surestimée. [1]

Partie I. L'émergence d'une élite cognitive Modifier

Dans la première partie du livre, Herrnstein et Murray montrent comment la société américaine s'est transformée au 20e siècle. Ils soutiennent que l'Amérique est passée d'une société où l'origine sociale déterminait largement le statut social à une société où la capacité cognitive est le principal déterminant du statut. La croissance de la fréquentation des collèges, un recrutement plus efficace des capacités cognitives et le tri des capacités cognitives par les collèges sélectifs sont identifiés comme des moteurs importants de cette évolution. L'augmentation du tri professionnel par capacité cognitive est discutée. L'argument est avancé, sur la base de méta-analyses publiées, que la capacité cognitive est le meilleur prédicteur de la productivité des travailleurs. [1]

Herrnstein et Murray soutiennent qu'en raison des rendements croissants des capacités cognitives, une élite cognitive est en train de se former en Amérique. Cette élite s'enrichit et se sépare progressivement du reste de la société. [1]

Partie II. Classes cognitives et comportement social Modifier

La deuxième partie décrit comment la capacité cognitive est liée aux comportements sociaux : une capacité élevée prédit un comportement socialement souhaitable, une capacité faible un comportement indésirable. L'argument est avancé que les différences de groupe dans les résultats sociaux sont mieux expliquées par des différences d'intelligence plutôt que par le statut socio-économique, une perspective, selon les auteurs, qui a été négligée dans la recherche. [1]

Les analyses rapportées dans cette partie du livre ont été effectuées à l'aide des données de la National Longitudinal Survey of Labour Market Experience of Youth (NLSY), une étude menée par le Bureau of Labor Statistics du département du Travail des États-Unis qui a suivi des milliers d'Américains à partir des années 1980. . Seuls les Blancs non hispaniques sont inclus dans les analyses afin de démontrer que les relations entre les capacités cognitives et le comportement social ne sont pas déterminées par la race ou l'origine ethnique. [1]

Herrnstein et Murray soutiennent que l'intelligence est un meilleur prédicteur des résultats des individus que le statut socioéconomique des parents. Cet argument est basé sur des analyses où il est démontré que les scores de QI des individus prédisent mieux leurs résultats à l'âge adulte que le statut socio-économique de leurs parents. De tels résultats sont rapportés pour de nombreux résultats, notamment la pauvreté, le décrochage scolaire, le chômage, le mariage, le divorce, l'illégitimité, la dépendance à l'aide sociale, les infractions pénales et la probabilité de voter aux élections. [1]

Tous les participants au NLSY ont passé la batterie d'aptitudes professionnelles des forces armées (ASVAB), une batterie de dix tests passés par tous ceux qui demandent l'entrée dans les forces armées. (Certains avaient passé un test de QI au lycée, et la corrélation médiane des scores du test de qualification des forces armées (AFQT) et de ces scores de test de QI était de 0,81). Les participants ont ensuite été évalués pour les résultats sociaux et économiques. En général, les scores de QI/AFQT étaient un meilleur prédicteur des résultats de la vie que le milieu de classe sociale. De même, après avoir contrôlé statistiquement les différences de QI, de nombreuses différences de résultats entre les groupes raciaux et ethniques ont disparu. [ citation requise ]

Corrélats économiques et sociaux du QI
QI <75 75–90 90–110 110–125 >125
Répartition de la population américaine 5 20 50 20 5
Marié à 30 ans 72 81 81 72 67
Inactif plus d'un mois par an (hommes) 22 19 15 14 10
Au chômage plus d'un mois par an (hommes) 12 10 7 7 2
Divorcé en 5 ans 21 22 23 15 9
% d'enfants avec QI dans le décile inférieur (mères) 39 17 6 7
Avait un bébé illégitime (mères) 32 17 8 4 2
Vit dans la pauvreté 30 16 6 3 2
Déjà incarcéré (hommes) 7 7 3 1 0
Bénéficiaire de l'aide sociale chronique (mères) 31 17 8 2 0
Décrochage scolaire 55 35 6 0.4 0
A noté « Oui » sur « l'indice des valeurs de la classe moyenne » [c 1] 16 30 50 67 74

Les valeurs sont le pourcentage de chaque sous-population de QI, parmi les Blancs non hispaniques uniquement, correspondant à chaque descripteur. [4]

  1. ^ Selon Herrnstein & Murray, "l'indice des valeurs de la classe moyenne" était destiné "à identifier parmi la population NLSY, au début de l'âge adulte lorsque l'indice a été évalué, les personnes qui s'entendent avec leur vie d'une manière qui correspond au stéréotype de la classe moyenne ." Pour marquer « Oui » sur l'index, un sujet NLSY devait répondre aux quatre critères suivants :
    • A reçu au moins un diplôme d'études secondaires
    • Jamais interviewé pendant l'incarcération
    • Toujours marié à son premier conjoint
    • Hommes seulement: Dans la population active, même sans emploi
    • Femmes Seulement: N'a jamais accouché hors mariage
    Sont exclus de l'analyse les personnes jamais mariées qui satisfont à toutes les autres composantes de l'indice et les hommes qui ne faisaient pas partie de la population active en 1989 ou 1990 en raison d'une incapacité ou qui étaient encore aux études. [3]

Partie III. Le contexte national Modifier

Cette partie du livre traite des différences ethniques dans la capacité cognitive et le comportement social. Herrnstein et Murray rapportent que les Américains d'origine asiatique ont un QI moyen plus élevé que les Américains blancs, qui à leur tour surpassent les Américains noirs. Le livre soutient que l'écart noir-blanc n'est pas dû à un biais de test, notant que les tests de QI n'ont pas tendance à sous-estimer les performances scolaires ou professionnelles des individus noirs et que l'écart est plus important sur des éléments de test apparemment culturellement neutres que sur des éléments de test plus culturellement chargés. éléments. Les auteurs notent également que l'ajustement pour le statut socio-économique n'élimine pas l'écart de QI noir-blanc. Cependant, ils soutiennent que l'écart se réduit. [1]

Selon Herrnstein et Murray, l'héritabilité élevée du QI au sein des races ne signifie pas nécessairement que la cause des différences entre les races est génétique. D'autre part, ils discutent des éléments de preuve qui ont été utilisés pour soutenir la thèse selon laquelle l'écart noir-blanc est au moins en partie génétique, comme l'hypothèse de Spearman. Ils discutent également des explications environnementales possibles de l'écart, telles que les augmentations générationnelles observées du QI, pour lesquelles ils inventent le terme d'effet Flynn. Au terme de cette discussion, ils écrivent : [1]

Si le lecteur est désormais convaincu que l'explication génétique ou environnementale l'a emporté à l'exclusion de l'autre, nous n'avons pas suffisamment bien présenté l'un ou l'autre côté. Il nous semble hautement probable que les gènes et l'environnement ont quelque chose à voir avec les différences raciales. Quel peut être le mélange ? Nous sommes résolument agnostiques sur cette question pour autant que nous puissions le déterminer, les preuves ne justifient pas encore une estimation.

Les auteurs soulignent également que quelles que soient les causes des différences, les personnes ne devraient pas être traitées différemment. [1]

Dans la partie III, les auteurs répètent également de nombreuses analyses de la partie II, mais comparent maintenant les blancs aux noirs et aux hispaniques dans l'ensemble de données NLSY. Ils constatent qu'après avoir contrôlé le QI, de nombreuses différences dans les résultats sociaux entre les races sont diminuées. [1]

Les auteurs discutent de la possibilité que des taux de natalité élevés chez les personnes ayant un QI inférieur puissent exercer une pression à la baisse sur la répartition nationale des capacités cognitives. Ils soutiennent que l'immigration peut également avoir un effet similaire. [1]

À la fin de la troisième partie, Herrnstein et Murray discutent de la relation entre le QI et les problèmes sociaux. En utilisant les données NLSY, ils soutiennent que les problèmes sociaux sont une fonction décroissante du QI de manière monotone, [1] en d'autres termes, à des scores de QI inférieurs, la fréquence des problèmes sociaux augmente.

Vivre ensemble Modifier

Dans ce dernier chapitre, les auteurs discutent de la pertinence de la capacité cognitive pour comprendre les grands problèmes sociaux en Amérique. [1]

Les preuves des tentatives expérimentales pour augmenter l'intelligence sont passées en revue. Les auteurs concluent qu'il n'y a actuellement aucun moyen d'augmenter l'intelligence plus qu'à un degré modeste. [1]

Les auteurs critiquent le « nivellement » de l'enseignement général et secondaire et défendent l'éducation des surdoués. Ils offrent un aperçu critique des politiques d'action positive dans les collèges et les lieux de travail, faisant valoir que leur objectif devrait être l'égalité des chances plutôt que l'égalité des résultats. [1]

Herrnstein et Murray dressent un portrait pessimiste de l'avenir de l'Amérique. Ils prédisent qu'une élite cognitive s'isolera davantage du reste de la société, tandis que la qualité de vie se détériore pour ceux qui se trouvent au bas de l'échelle cognitive. Antidote à ce pronostic, ils proposent une vision de la société où les différences de capacités sont reconnues et où chacun peut avoir une place valorisée, mettant l'accent sur le rôle des communautés locales et des règles morales claires qui s'appliquent à tous. [1]

Recommandations politiques Modifier

Herrnstein et Murray ont fait valoir que le QI génétique moyen des États-Unis est en baisse, en raison de la tendance des plus intelligents à avoir moins d'enfants que les moins intelligents, de la durée des générations à être plus courte pour les moins intelligents et de l'immigration à grande échelle vers le États-Unis de ceux qui ont une faible intelligence. Discutant d'un éventuel futur résultat politique d'une société intellectuellement stratifiée, les auteurs ont déclaré qu'ils « craignent qu'un nouveau type de conservatisme ne devienne l'idéologie dominante des riches - pas dans la tradition sociale d'un Edmund Burke ou dans la tradition économique d'un Adam Smith mais du « conservatisme » le long des lignes latino-américaines, où être conservateur a souvent signifié faire tout ce qui est nécessaire pour préserver les manoirs sur les collines de la menace des bidonvilles ci-dessous. » [5] De plus, ils craignent que l'augmentation du bien-être ne crée un « État de garde » dans « une version high-tech et plus somptueuse de la réserve indienne pour une minorité substantielle de la population du pays ». Ils prédisent également un totalitarisme croissant : « Il est difficile d'imaginer les États-Unis préserver leur héritage d'individualisme, d'égalité des droits devant la loi, de personnes libres menant leur propre vie, une fois qu'il est admis qu'une partie importante de la population doit être mise sous tutelle permanente. des États." [6]

Les auteurs ont recommandé l'élimination des politiques d'aide sociale qui, selon eux, encouragent les femmes pauvres à avoir des enfants. [7]

La courbe en cloche reçu une grande attention médiatique. Le livre n'a pas été distribué à l'avance aux médias, à l'exception de quelques critiques sélectionnés par Murray et l'éditeur, qui ont retardé des critiques plus détaillées pendant des mois et des années après la sortie du livre. [8] Stephen Jay Gould, examinant le livre en Le new yorker, a déclaré que le livre "ne contient aucun nouvel argument et ne présente aucune donnée convaincante pour étayer son darwinisme social anachronique" et a déclaré que "les auteurs omettent des faits, abusent des méthodes statistiques et ne semblent pas disposés à admettre les conséquences de leurs propres mots". [9]

Un article publié en 1995 par Fairness and Accuracy dans le journaliste Jim Naureckas critiquait la réponse des médias, affirmant que « Bien que bon nombre de ces discussions comprenaient des critiques acerbes du livre, les comptes rendus des médias ont montré une tendance inquiétante à accepter les prémisses et les preuves de Murray et Herrnstein même en débattant de leur conclusions". [dix]

Après que les critiques ont eu plus de temps pour examiner les recherches et les conclusions du livre, des critiques plus importantes commencent à apparaître. [8] Nicholas Lemann, écrivant dans Ardoise, a déclaré que des critiques ultérieures ont montré que le livre était "plein d'erreurs allant d'un raisonnement bâclé à des citations erronées de sources en passant par de pures erreurs mathématiques". [8] Lemann a dit que "Sans surprise, toutes les erreurs vont dans le sens de soutenir la thèse des auteurs." [8]

Examen par les pairs Modifier

Herrnstein et Murray n'ont pas soumis leur travail à un examen par les pairs avant publication, une omission que beaucoup ont considérée comme incompatible avec leur présentation en tant que texte savant. [8] [11] Nicholas Lemann a noté que le livre n'a pas circulé dans les épreuves d'office, une pratique courante pour permettre aux critiques potentiels et aux professionnels des médias une occasion de se préparer à l'arrivée du livre. [8]

Cinquante-deux professeurs, pour la plupart des chercheurs en renseignement et dans des domaines connexes, ont signé « Mainstream Science on Intelligence », [12] une déclaration d'opinion approuvant un certain nombre de points de vue présentés dans La courbe en cloche. La déclaration a été rédigée par la psychologue Linda Gottfredson et publiée dans Le journal de Wall Street en 1994 et réimprimé par la suite dans Intelligence, une revue académique. Sur les 131 personnes invitées par courrier à signer le document, 100 ont répondu, 52 ont accepté de signer et 48 ont refusé. Onze des 48 personnes qui ont refusé de signer ont affirmé que la déclaration ou une partie de celle-ci ne représentait pas la vision dominante du renseignement. [12] [13]

Rapport du groupe de travail APA Modifier

En réponse à la controverse entourant La courbe en cloche, le Conseil des affaires scientifiques de l'American Psychological Association a établi un groupe de travail spécial pour publier un rapport d'enquête se concentrant uniquement sur la recherche présentée dans le livre, pas nécessairement sur les recommandations politiques qui ont été faites. [14]

Concernant les explications des différences raciales, le groupe de travail de l'APA a déclaré :

La cause de cette différence n'est pas connue, elle n'est apparemment pas due à une simple forme de biais dans le contenu ou l'administration des tests eux-mêmes. L'effet Flynn montre que les facteurs environnementaux peuvent produire des différences d'au moins cette ampleur, mais cet effet est mystérieux en soi. Plusieurs explications fondées sur la culture du différentiel de QI Noir/Blanc ont été proposées, certaines sont plausibles, mais jusqu'à présent, aucune n'a été soutenue de manière concluante. Il y a encore moins de support empirique pour une interprétation génétique. En bref, aucune explication adéquate de la différence entre les QI moyens des Noirs et des Blancs n'est actuellement disponible.

Le journal APA qui a publié la déclaration, psychologue américain, a ensuite publié onze réponses critiques en janvier 1997. [15]

De nombreuses critiques ont été recueillies dans le livre Le débat sur la courbe en cloche.

Hypothèses Modifier

Critique de Stephen Jay Gould Modifier

Stephen Jay Gould a écrit que « l'argument complet » des auteurs de La courbe en cloche repose sur quatre hypothèses non étayées, et pour la plupart fausses, sur l'intelligence : [9] [16]

  1. L'intelligence doit être réductible à un seul nombre.
  2. L'intelligence doit être capable de classer les gens dans un ordre linéaire.
  3. L'intelligence doit être principalement basée sur la génétique.
  4. L'intelligence doit être essentiellement immuable.

Dans une interview de 1995 avec Frank Miele de Sceptique, Murray a nié avoir fait chacune de ces quatre hypothèses. [17]

Critique de James Heckman Modifier

L'économiste James Heckman, lauréat du prix Nobel, considère que deux hypothèses formulées dans le livre sont discutables : g tient compte de la corrélation entre les résultats des tests et les performances dans la société, et que g ne peut pas être manipulé. La réanalyse par Heckman des preuves utilisées dans La courbe en cloche trouvé des contradictions :

  1. Les facteurs qui expliquent les salaires reçoivent des poids différents de ceux qui expliquent les résultats des tests. Plus que g est nécessaire d'expliquer l'un ou l'autre.
  2. D'autres facteurs en plus g contribuent à la performance sociale, et ils peuvent être manipulés. [18]

En réponse, Murray a fait valoir qu'il s'agissait d'un homme de paille et que le livre ne prétend pas que g ou le QI sont totalement immuables ou les seuls facteurs affectant les résultats. [19]

Dans une interview de 2005, Heckman a fait l'éloge La courbe en cloche pour avoir brisé "un tabou en montrant que des différences de capacités existaient et en prédisant une variété de résultats socio-économiques" et pour avoir joué "un rôle très important en soulevant la question des différences de capacités et de leur importance" et a déclaré qu'il était "un plus grand fan de [La courbe en cloche] que vous ne le pensez. » Cependant, il a également soutenu que Herrnstein et Murray ont surestimé le rôle de l'hérédité dans la détermination des différences d'intelligence. [20]

Critique de Noam Chomsky Modifier

En 1995, Noam Chomsky, l'un des fondateurs du domaine des sciences cognitives, a directement critiqué le livre et ses hypothèses sur le QI. Il conteste l'idée que le QI est héritable à 60 %, arguant que « la déclaration n'a pas de sens » parce que l'héritabilité ne doit pas nécessairement être génétique. Chomsky donne l'exemple des femmes portant des boucles d'oreilles :

Pour emprunter un exemple à Ned Block, "il y a quelques années, lorsque seules les femmes portaient des boucles d'oreilles, l'héritabilité d'avoir une boucle d'oreille était élevée car les différences entre le fait qu'une personne avait une boucle d'oreille étaient dues à une différence chromosomique, XX contre XY." Personne n'a encore suggéré que le port de boucles d'oreilles ou de cravates est « dans nos gènes », un destin incontournable que l'environnement ne peut influencer, « condamnant la notion libérale ». [21]

Il poursuit en disant qu'il n'y a presque aucune preuve d'un lien génétique, et une plus grande preuve que les problèmes environnementaux sont ce qui détermine les différences de QI.

Méthodes statistiques Modifier

Claude S. Fischer, Michael Hout, Martín Sánchez Jankowski, Samuel R. Lucas, Ann Swidler et Kim Voss dans le livre L'inégalité par conception recalculé l'effet du statut socioéconomique, en utilisant les mêmes variables que La courbe en cloche, mais en les pondérant différemment. Ils ont découvert que si les scores de QI sont ajustés, comme l'ont fait Herrnstein et Murray, pour éliminer l'effet de l'éducation, la capacité du QI à prédire la pauvreté peut devenir considérablement plus grande, jusqu'à 61 % pour les Blancs et 74 % pour les Noirs. Selon les auteurs, la conclusion de Herrnstein et Murray selon laquelle le QI prédit la pauvreté bien mieux que le statut socio-économique est essentiellement le résultat de la façon dont ils ont traité les statistiques. [22]

En août 1995, l'économiste du National Bureau of Economic Research Sanders Korenman et le sociologue de l'Université Harvard Christopher Winship ont soutenu que l'erreur de mesure n'était pas correctement gérée par Herrnstein et Murray. Korenman et Winship ont conclu : « . il existe des preuves d'un biais substantiel dû à une erreur de mesure dans leurs estimations des effets du statut socioéconomique des parents. éléments du milieu familial (comme la structure de la famille monoparentale à 14 ans). En conséquence, leur analyse donne une impression exagérée de l'importance du QI par rapport au SSE des parents, et par rapport au milieu familial plus généralement. une variété de méthodes, y compris des analyses de la fratrie, suggèrent que les antécédents familiaux des parents sont au moins aussi importants, et peuvent être plus importants que le QI pour déterminer la réussite socio-économique à l'âge adulte. [23]

Dans le livre Intelligence, gènes et succès : les scientifiques réagissent à la courbe en cloche, un groupe de chercheurs en sciences sociales et de statisticiens analyse le lien génétique-intelligence, le concept d'intelligence, la malléabilité de l'intelligence et les effets de l'éducation, la relation entre les capacités cognitives, les salaires et la méritocratie, les voies vers les inégalités raciales et ethniques en matière de santé, et la question des politiques publiques. Ce travail fait valoir qu'une grande partie de la réponse du public était polémique et n'a pas réussi à analyser les détails de la science et la validité des arguments statistiques sous-jacents aux conclusions du livre. [1]

Utilisation de l'AFQT Modifier

William J. Matthews écrit qu'une partie de La courbe en cloche'L'analyse est basée sur l'AFQT « qui n'est pas un test de QI mais conçu pour prédire la performance de certaines variables de critère ». [24] L'AFQT couvre des sujets comme la trigonométrie. [8]

Heckman a observé que l'AFQT a été conçu uniquement pour prédire le succès dans les écoles de formation militaire et que la plupart de ces tests semblent être des tests de réussite plutôt que des tests de capacité, mesurant les connaissances factuelles et non la capacité pure. Il poursuit : [18] [25]

Ironiquement, les auteurs suppriment de leur score AFQT composite un test chronométré d'opérations numériques car il n'est pas fortement corrélé avec les autres tests. Pourtant, il est bien connu que dans les données qu'ils utilisent, ce sous-test est le meilleur prédicteur des gains de toutes les composantes du test AFQT. Le fait que de nombreux sous-tests ne soient que faiblement corrélés les uns aux autres, et que le meilleur prédicteur des gains ne soit que faiblement corrélé avec leur score « g-loaded », ne fait que douter davantage qu'un modèle à capacité unique soit une description satisfaisante de l'humain. intelligence. Cela met également en évidence le fait que la "charge g" si fortement soulignée par Murray et Herrnstein ne mesure que la concordance entre les tests - pas le pouvoir prédictif des résultats socio-économiques. De la même manière, on pourrait également soutenir que les auteurs ont biaisé leur analyse empirique par rapport aux conclusions qu'ils obtiennent en faisant abstraction du test ayant le plus grand pouvoir prédictif.

Janet Currie et Duncan Thomas ont présenté des preuves suggérant que les scores AFQT sont probablement de meilleurs marqueurs pour les antécédents familiaux que «l'intelligence» dans une étude de 1999 :

Herrnstein et Murray rapportent qu'en fonction de « l'intelligence » maternelle (scores AFQT), les résultats des tests des enfants sont peu affectés par les variations du statut socio-économique. En utilisant les mêmes données, nous démontrons que leur conclusion est très fragile. [26]

Tri cognitif Modifier

Charles R. Tittle et Thomas Rotolo ont découvert que plus les examens écrits, de type QI, sont utilisés comme dispositifs de dépistage pour l'accès au travail, plus la relation entre le QI et le revenu est forte. Ainsi, plutôt qu'un QI plus élevé menant à l'obtention d'un statut, car il indique les compétences nécessaires dans une société moderne, le QI peut refléter les mêmes capacités de test que celles utilisées dans les dispositifs de dépistage artificiels par lesquels les groupes de statut protègent leurs domaines. [27]

Min-Hsiung Huang et Robert M. Hauser écrivent que Herrnstein et Murray fournissent peu de preuves de la croissance du tri cognitif. En utilisant les données de l'Enquête sociale générale, ils ont testé chacune de ces hypothèses à l'aide d'un court test d'aptitude verbale qui a été administré à environ 12 500 adultes américains entre 1974 et 1994. Les résultats n'ont fourni aucun support pour les hypothèses de tendance avancées par Herrnstein et Murray. Un graphique dans La courbe en cloche prétend montrer que les personnes ayant un QI supérieur à 120 sont devenues « rapidement plus concentrées » dans les professions à QI élevé depuis 1940. Mais Robert Hauser et son collègue Min-Hsiung Huang ont retesté les données et ont obtenu des estimations qui sont « bien inférieures à celles d'Herrnstein. et Murray." Ils ajoutent que les données, correctement utilisées, « ne nous disent rien, sauf que des groupes professionnels sélectionnés et très instruits ont connu une croissance rapide depuis 1940 ». [28]

En 1972, Noam Chomsky remet en cause l'idée de Herrnstein selon laquelle la société évolue vers une méritocratie. Chomsky a critiqué les hypothèses selon lesquelles les gens ne recherchent des emplois que sur la base d'un gain matériel. Il a fait valoir que Herrnstein ne voudrait pas devenir boulanger ou bûcheron même s'il pouvait gagner plus d'argent de cette façon. Il a également critiqué l'hypothèse selon laquelle une telle société serait équitable avec un salaire basé sur la valeur des contributions. Il a fait valoir que parce qu'il existe déjà de grandes inégalités injustes, les gens seront souvent payés non pas proportionnellement aux contributions à la société, mais à des niveaux qui préservent ces inégalités. [29]

Race et intelligence Modifier

Une partie de la controverse concernait les parties du livre qui traitaient des différences entre les groupes raciaux sur le QI et les conséquences de cela. Les auteurs ont été rapportés dans la presse populaire comme faisant valoir que ces différences de QI sont strictement génétiques, alors qu'en fait, ils ont attribué des différences de QI à la fois aux gènes et à l'environnement au chapitre 13 : « Il nous semble hautement probable que les gènes et l'environnement aient quelque chose à voir avec les différences raciales. L'introduction du chapitre déclare plus prudemment : « Le débat sur la question de savoir si et dans quelle mesure les gènes et l'environnement ont à voir avec les différences ethniques reste en suspens. »

Lorsque plusieurs critiques éminents ont transformé cela en une "hypothèse" que les auteurs avaient attribué la plupart ou la totalité des différences raciales de QI aux gènes, le co-auteur Charles Murray a répondu en citant deux passages du livre :

  • « Si le lecteur est aujourd'hui convaincu que l'explication génétique ou environnementale l'a emporté à l'exclusion de l'autre, nous n'avons pas suffisamment bien présenté l'un ou l'autre côté. Il nous semble fort probable que tant les gènes que les l'environnement a quelque chose à voir avec les différences raciales. Quel pourrait être le mélange ? Nous sommes résolument agnostiques sur cette question pour autant que nous puissions le déterminer, les preuves ne justifient pas une estimation. " (p. 311) [30]
  • "Si demain vous saviez sans l'ombre d'un doute que toutes les différences cognitives entre les races sont d'origine génétique à 100%, rien de significatif ne devrait changer. La connaissance ne vous donnerait aucune raison de traiter les individus différemment que si les différences ethniques étaient à 100% environnemental". [30]

Dans un article faisant l'éloge du livre, l'économiste Thomas Sowell a critiqué certains de ses aspects, y compris certains de ses arguments sur la race et la malléabilité du QI :

Lorsque les groupes d'immigrants européens aux États-Unis ont obtenu des scores inférieurs à la moyenne nationale aux tests mentaux, ils ont obtenu les scores les plus bas dans les parties abstraites de ces tests. De même, les enfants alpinistes blancs aux États-Unis ont été testés au début des années 1930. Curieusement, Herrnstein et Murray se réfèrent au « folklore » selon lequel « les Juifs et autres groupes d'immigrants étaient considérés comme ayant une intelligence inférieure à la moyenne ». Ce n'était ni du folklore ni rien d'aussi subjectif que des pensées. Elle était basée sur des données concrètes, aussi dures que n'importe quelle donnée en La courbe en cloche. Ces groupes ont été testés à plusieurs reprises en dessous de la moyenne sur les tests mentaux de l'ère de la Première Guerre mondiale, à la fois dans l'armée et dans la vie civile. Pour les Juifs, il est clair que les tests ultérieurs ont montré des résultats radicalement différents, à une époque où il y avait très peu de mariages mixtes pour changer la constitution génétique des Juifs américains. [31]

Rushton (1997) a soutenu que les premiers tests soutiennent en fait un QI juif ashkénaze moyen élevé. [32]

Le chroniqueur Bob Herbert, écrivant pour Le New York Times, a décrit le livre comme "un morceau scabreux de pornographie raciale déguisé en érudition sérieuse". "M. Murray peut protester autant qu'il veut", a écrit Herbert "son livre n'est qu'une manière distinguée d'appeler quelqu'un un nègre." [33]

En 1996, Stephen Jay Gould a publié une édition révisée et augmentée de son livre de 1981 La fausse mesure de l'homme, destiné à réfuter plus directement nombre de La courbe en cloche's concernant la race et l'intelligence, et a fait valoir que les preuves de l'héritabilité du QI n'indiquaient pas une origine génétique pour regrouper les différences d'intelligence. [34] [35]

Le psychologue David Marks a suggéré que le test ASVAB utilisé dans les analyses de La courbe en cloche est fortement corrélé avec les mesures d'alphabétisation et soutient que le test ASVAB n'est en fait pas une mesure de l'intelligence générale mais de l'alphabétisation. [36] [37]

Melvin Konner, professeur d'anthropologie et professeur agrégé de psychiatrie et de neurologie à l'Université Emory, a appelé Courbe en cloche une « attaque délibérée contre les efforts visant à améliorer les performances scolaires des Afro-Américains » :

Ce livre a présenté des preuves solides que les gènes jouent un rôle dans l'intelligence, mais l'a lié à l'affirmation non étayée selon laquelle les gènes expliquent la petite mais cohérente différence noir-blanc du QI. La juxtaposition d'un bon argument avec un mauvais semblait politiquement motivée, et des réfutations persuasives sont rapidement apparues. En fait, les Afro-Américains ont excellé dans pratiquement tous les environnements enrichis dans lesquels ils ont été placés, dont la plupart leur étaient auparavant interdits, et cela seulement au cours des dix ou deux premières années d'opportunités améliorées mais toujours pas égales. Il est probable que les courbes réelles des deux races seront un jour superposables, mais cela peut nécessiter des décennies de changement et des environnements différents pour différentes personnes. Les allégations sur le potentiel génétique n'ont de sens qu'à la lumière de cette exigence. [38]

Le manuel de 2014 Analyse évolutive par Herron et Freeman [39] ont consacré un chapitre entier à démystifier ce qu'ils ont appelé le « sophisme de la courbe de Bell », en disant que « l'argument de Murray et Herrnstein n'est guère plus qu'un appel à l'incrédulité personnelle » et que c'est une erreur de penser que l'héritabilité peut nous renseigner sur les causes des différences entre les moyennes des populations. En référence à la comparaison des scores de QI afro-américains et européens-américains, le texte indique que seule une expérience de jardin commun, dans laquelle les deux groupes sont élevés dans un environnement typiquement vécu par les européens-américains, permettrait de voir si le la différence est génétique. Ce genre d'expérience, routinière avec les plantes et les animaux, ne peut pas être menée avec des humains. Il n'est pas non plus possible de rapprocher cette conception des adoptions dans les familles des différents groupes, car les enfants seraient reconnaissables et seraient éventuellement traités différemment. Le texte conclut : "Il n'y a aucun moyen d'évaluer si la génétique a quelque chose à voir avec la différence de score de QI entre les groupes ethniques."

En 1995, Noam Chomsky a critiqué les conclusions du livre sur la race et l'idée que les Noirs et les personnes ayant un QI inférieur ayant plus d'enfants est même un problème. [21]

Rutledge M. Dennis suggère qu'à travers des extraits sonores d'ouvrages comme la célèbre étude de Jensen sur l'écart de réussite et le livre de Herrnstein et Murray La courbe en cloche, les médias "dépeignent les Noirs et les autres personnes de couleur comme des analphabètes biologiques collectifs - non seulement intellectuellement inaptes, mais aussi mauvais et criminels", fournissant ainsi, dit-il "la logique et la justification de ceux qui priveraient davantage de leurs droits et excluraient minorités raciales et ethniques ». [40]

Charles Lane a souligné que 17 des chercheurs dont les travaux sont référencés par le livre ont également contribué à L'Humanité Trimestrielle, une revue d'anthropologie fondée en 1960 à Édimbourg, qui a été considérée comme soutenant la théorie de la supériorité génétique des Blancs. [41] David Bartholomew rapporte la réponse de Murray dans le cadre de la controverse sur la courbe en cloche. [42] Dans sa postface à l'édition Free Press de 1996 de La courbe en cloche, Murray a répondu que le livre « tire ses preuves de plus d'un millier d'érudits » et que parmi les chercheurs mentionnés dans la liste de Lane « se trouvent certains des psychologues les plus respectés de notre époque et que presque toutes les sources qualifiées de corrompues sont des articles publiés dans les principales revues à comité de lecture". [43]

The Bell Curve Wars : Race, Intelligence et l'avenir de l'Amérique est une collection d'articles publiés en réaction au livre. Sous la direction de Steven Fraser, les auteurs de ces essais n'ont pas de point de vue précis sur le contenu de La courbe en cloche, mais expriment leurs propres critiques sur divers aspects du livre, y compris les méthodes de recherche utilisées, les prétendus biais cachés dans la recherche et les politiques suggérées à la suite des conclusions tirées par les auteurs. [44] Fraser écrit qu'« en scrutant les notes de bas de page et la bibliographie dans La courbe en cloche, les lecteurs peuvent plus facilement reconnaître le projet pour ce qu'il est : une froide synthèse du travail de théoriciens de la race peu recommandables et d'eugénistes excentriques". [45]

Allégations de racisme Modifier

Depuis que le livre a fourni des données statistiques affirmant que les Noirs étaient, en moyenne, moins intelligents que les Blancs, certaines personnes ont craint que La courbe en cloche pourrait être utilisé par des extrémistes pour justifier le génocide et les crimes haineux. [46] Une grande partie des travaux référencés par La courbe en cloche a été financé par le Pioneer Fund, qui vise à faire progresser l'étude scientifique de l'hérédité et des différences humaines, et a été accusé de promouvoir le racisme scientifique. [47] [48] [49] Murray a critiqué la caractérisation du Pioneer Fund comme une organisation raciste, en faisant valoir qu'il a autant de relations avec son fondateur que "Henry Ford et la Ford Foundation d'aujourd'hui". [50]

Le biologiste évolutionniste Joseph L. Graves décrit La courbe en cloche comme exemple de science raciste, contenant tous les types d'erreurs dans l'application de la méthode scientifique qui ont caractérisé l'histoire du racisme scientifique :

  1. Allégations qui ne sont pas étayées par les données fournies
  2. Erreurs de calcul qui soutiennent invariablement l'hypothèse
  3. Aucune mention de données qui contredisent l'hypothèse
  4. Aucune mention des théories et des données qui entrent en conflit avec les hypothèses de base
  5. Des recommandations politiques audacieuses qui sont cohérentes avec celles préconisées par les racistes. [51]

Eric Siegel a écrit sur le Scientifique américain blog que le livre "approuve les préjugés en raison de ce qu'il ne dit pas. Nulle part le livre n'explique pourquoi il enquête sur les différences raciales dans le QI. En n'expliquant jamais une raison pour rapporter ces différences en premier lieu, les auteurs transmettent une conclusion pourtant sans équivoque : la race est un indicateur utile pour savoir si une personne est susceptible de détenir certaines capacités. Même si nous supposons que les tendances des données présentées sont solides, le livre laisse le lecteur seul pour déduire comment mettre au mieux ces idées à utiliser. L'effet net est de tolérer tacitement les préjugés d'individus fondés sur la race. " [52] De la même manière, Howard Gardner a accusé les auteurs de s'être livrés à une « astuce scientifique », arguant que « qu'il s'agisse d'une question de science, de politique ou de rhétorique, les auteurs sont dangereusement proches d'adopter les positions les plus extrêmes, mais finalement timides. loin de le faire. L'esprit scientifique encourage le lecteur à tirer les conclusions les plus solides, tout en permettant aux auteurs de désavouer cette intention. " [53]


Le pull-up (parfois appelé saignement) est un échec du logiciel d'analyse à faire la distinction entre les différentes couleurs de colorant utilisées lors de la génération des résultats des tests. Un pic observé dans un colorant (comme le bleu) est enregistré par le capteur pour un autre colorant (comme le vert ou le jaune) et génère un deuxième pic qui est un artefact technique.Le pic d'artefact peut avoir une hauteur substantielle pour être considéré comme un véritable allèle. Il existe un risque que le pull-up ne soit pas reconnu, en particulier lorsque le résultat qu'il produit est cohérent avec ce que l'analyste s'attendait ou voulait trouver.


Pourquoi le pic DSC a-t-il une forme de cloche ? - La biologie

Pendant la première moitié du 20e siècle, la plupart des gens ne pensaient pas aux limites de nos ressources en combustibles fossiles. Cela a changé dans les années 1950, lorsqu'une géophysicienne du nom de Marion King Hubbard a développé une courbe qui a été appliquée aux approvisionnements en combustibles fossiles (en particulier en pétrole). Sa courbe est devenue connue sous le nom de « courbe de Hubbert » et est devenue un sujet controversé pour les experts en énergie.

La courbe de Hubbert est vraiment une fonction mathématique de base. Ce a une forme de cloche qui commence à zéro, monte jusqu'à un pic, puis retombe à zéro (voir le diagramme avec la ligne rouge ci-dessous).

La partie montante de la courbe comporte trois parties (phases) qui ressemblent à une forme de « S » : (1) une phase de « retard » de flexion vers le haut, (2) une phase de « journal » à augmentation rapide et (3) un plateau qui nivelle désactivé. Les mathématiciens appellent une telle courbe en "S" une exponentiel courbe.

Les courbes exponentielles ont une applicabilité étendue. Par exemple, ils peuvent être utilisés pour décrire le modèle de croissance d'un organisme individuel ou d'une population. Sur le plan médicinal, ils peuvent montrer la quantité d'oxygène transportée par l'hémoglobine, un pigment sanguin, lorsque la quantité d'oxygène dans votre sang passe d'un niveau bas à un niveau élevé.


En 1956, Hubbert a utilisé la courbe pour expliquer l'avenir des approvisionnements en pétrole. Sa courbe comprenait une augmentation de l'offre, un pic et une baisse. La base fondamentale de sa théorie était que les approvisionnements en pétrole sont finis. Par conséquent, la quantité disponible dans le sol ne cessera de diminuer, ce qui entraînera un cycle d'expansion / de ralentissement. Un élément important de la théorie de Hubbert est qu'elle peut être appliquée aux niveaux local, régional, national ou mondial.

La courbe, telle que Hubbert l'a décrite pour la première fois, peut être représentée par ce diagramme qui a la production annuelle sur l'axe des Y et le temps sur l'axe des X :


Lorsqu'il a présenté son article pour la première fois en 1956, Hubbert avait prédit que la production de pétrole culminerait aux États-Unis à la fin des années 1960, et dans le monde vers 2005. Il a même prédit que la production annuelle atteindrait 12 gigabarils. Ces prédictions sont devenues connues sous le nom de concept de « Peak Oil ».

Étant donné que la prédiction de Hubbert a des ramifications si profondes sur tant de facettes de notre bien-être sociétal, elle a fait l'objet d'un examen et d'une révision approfondis. Vous trouverez ci-dessous plusieurs courbes qui ont été développées pour tester les idées de Hubbert.


Cette courbe montre la production en Norvège. Notez le bon ajustement des points de données avec Hubbert.


Ce graphique montre la production de pétrole aux États-Unis. Notez que le pic a été atteint vers 1970, bien que le déclin ait pris plus de temps que prévu par la courbe de Hubbert.


Cette courbe montre la production quotidienne dans les pays non membres de l'OPEP. Notez que chaque nation a un pic qui a été atteint entre 1970 et 2004.

Certaines personnes sont d'accord avec les prédictions de Hubbert et les utilisent pour affirmer que nous devons limiter notre utilisation du pétrole. D'autres sont d'accord avec le concept, mais pensent que les approvisionnements dureront plus longtemps que Hubbert ne l'avait prédit. D'autres encore ne sont pas du tout d'accord avec le concept

Une discussion détaillée du pic pétrolier dépasse le but de ce cours. Cependant, certaines informations peuvent être obtenues à travers les lectures suivantes : .


Contenu

La base des capteurs d'images pour appareils photo numériques est la technologie métal-oxyde-semiconducteur (MOS), [4] [5] qui provient de l'invention du MOSFET (transistor à effet de champ MOS) par Mohamed M. Atalla et Dawon Kahng des Bell Labs. en 1959. [6] Cela a conduit au développement de capteurs d'images numériques à semi-conducteurs, y compris le dispositif à couplage de charge (CCD) et plus tard le capteur CMOS. [5] Le premier capteur d'image à semi-conducteur était le dlol à couplage de charge, inventé par Willard S. Boyle et George E. Smith aux Bell Labs en 1969, [7] basé sur la technologie des condensateurs MOS. [5] Le capteur à pixels actifs NMOS a ensuite été inventé par l'équipe de Tsutomu Nakamura à Olympus en 1985, [8] [9] [10] qui a conduit au développement du capteur à pixels actifs CMOS (capteur CMOS) par l'équipe d'Eric Fossum au Jet Propulsion Laboratory de la NASA en 1993. [11] [9]

Dans les années 1960, Eugene F. Lally du Jet Propulsion Laboratory réfléchissait à la manière d'utiliser un photocapteur en mosaïque pour capturer des images numériques. Son idée était de prendre des photos des planètes et des étoiles en voyageant dans l'espace pour donner des informations sur la position des astronautes. [12] Comme avec la caméra sans film de Willis Adcock, employé de Texas Instruments (brevet américain 4 057 830) en 1972, [13] la technologie n'avait pas encore rattrapé le concept.

Le Cromemco Cyclops était un appareil photo entièrement numérique introduit en tant que produit commercial en 1975. Sa conception a été publiée en tant que projet de construction pour amateur dans le numéro de février 1975 de Électronique populaire magazine. Il utilisait un capteur d'image 32 × 32 métal-oxyde-semiconducteur (MOS), qui était une puce de mémoire RAM dynamique (DRAM) MOS modifiée. [14]

Steven Sasson, ingénieur chez Eastman Kodak, a inventé et construit un appareil photo électronique autonome utilisant un capteur d'image à dispositif à couplage de charge (CCD) en 1975. [15] [16] [17] À peu près à la même époque, Fujifilm a commencé à développer La technologie CCD dans les années 1970. [18] Les premières utilisations étaient principalement militaires et scientifiques, suivies d'applications médicales et de nouvelles. [ citation requise ]

Les appareils photo numériques pratiques ont été rendus possibles par les progrès de la compression des données, en raison des exigences de mémoire et de bande passante trop élevées pour les images et les vidéos non compressées. [19] L'algorithme de compression le plus important est la transformée en cosinus discrète (DCT), [19] [20] une technique de compression avec perte qui a été proposée pour la première fois par Nasir Ahmed alors qu'il travaillait à l'Université du Texas en 1972. [21] Pratique les appareils photo numériques ont été activés par les normes de compression DCT, y compris les normes de codage vidéo H.26x et MPEG introduites à partir de 1988, [20] et la norme de compression d'image JPEG introduite en 1992. [22] [23]

Nikon s'est intéressé à la photographie numérique depuis le milieu des années 1980. En 1986, lors d'une présentation à la Photokina, Nikon présente un prototype opérationnel du premier appareil photo électronique de type reflex (Still Video Camera), fabriqué par Panasonic. [24] Le Nikon SVC a été construit autour d'un capteur 2/3" à couplage de charge de 300 000 pixels. Support de stockage, une disquette magnétique à l'intérieur de l'appareil photo permet d'enregistrer 25 ou 50 images N&B, selon la définition. [25] En 1988, Nikon a lancé le premier appareil photo reflex mono-objectif électronique commercial, le QV-1000C.[24]

Lors de la Photokina 1988, Fujifilm a présenté le FUJIX DS-1P, le premier appareil photo entièrement numérique, capable d'enregistrer des données sur une carte mémoire à semi-conducteur. La carte mémoire de l'appareil photo avait une capacité de 2 Mo de SRAM (mémoire statique à accès aléatoire) et pouvait contenir jusqu'à dix photographies. En 1989, Fujifilm a lancé le FUJIX DS-X, le premier appareil photo entièrement numérique à être commercialisé. [18] En 1996, la carte mémoire flash de 40 Mo de Toshiba a été adoptée pour plusieurs appareils photo numériques. [26]

Le premier téléphone appareil photo commercial était le Kyocera Visual Phone VP-210, sorti au Japon en mai 1999. [27] Il stockait jusqu'à 20 images numériques JPEG, qui pouvaient être envoyées par courrier électronique, ou le téléphone pouvait envoyer jusqu'à deux images par seconde sur le réseau cellulaire PHS (Personal Handy-phone System) du Japon. [27] Le Samsung SCH-V200, sorti en Corée du Sud en juin 2000, était également l'un des premiers téléphones dotés d'un appareil photo intégré. Il avait un écran à cristaux liquides (LCD) TFT et stockait jusqu'à 20 photos numériques à une résolution de 350 000 pixels. Cependant, il ne pouvait pas envoyer l'image résultante via la fonction téléphonique, mais nécessitait une connexion informatique pour accéder aux photos. [29] Le premier téléphone-appareil photo grand public était le J-SH04, un modèle Sharp J-Phone vendu au Japon en novembre 2000. [30] [29] Il pouvait transmettre instantanément des images via les télécommunications par téléphone portable. [31] Au milieu des années 2000, les téléphones portables haut de gamme avaient un appareil photo numérique intégré. Au début des années 2010, presque tous les smartphones avaient un appareil photo numérique intégré.

Les deux principaux types de capteurs d'images numériques sont le CCD et le CMOS. Un capteur CCD possède un amplificateur pour tous les pixels, tandis que chaque pixel d'un capteur à pixels actifs CMOS possède son propre amplificateur. [32] Par rapport aux CCD, les capteurs CMOS consomment moins d'énergie. Les caméras avec un petit capteur utilisent un capteur CMOS rétroéclairé (BSI-CMOS). Les capacités de traitement d'image de la caméra déterminent le résultat de la qualité d'image finale bien plus que le type de capteur. [33] [34]

Résolution du capteur Modifier

La résolution d'un appareil photo numérique est souvent limitée par le capteur d'image qui transforme la lumière en signaux discrets. Plus l'image est lumineuse à un point donné du capteur, plus la valeur lue pour ce pixel est grande. Selon la structure physique du capteur, une matrice de filtres de couleur peut être utilisée, ce qui nécessite un dématriçage pour recréer une image en couleur. Le nombre de pixels dans le capteur détermine le « nombre de pixels » de la caméra. Dans un capteur typique, le nombre de pixels est le produit du nombre de lignes et du nombre de colonnes. Par exemple, un capteur de 1 000 par 1 000 pixels aurait 1 000 000 de pixels, soit 1 mégapixel.

Options de résolution Modifier

Le sélecteur de résolution du micrologiciel permet à l'utilisateur de réduire éventuellement la résolution, de réduire la taille du fichier par image et d'étendre le zoom numérique sans perte. L'option de résolution inférieure est généralement de 640 × 480 pixels (0,3 mégapixels). [ citation requise ]

Une résolution inférieure augmente le nombre de photos restantes dans l'espace libre, reportant l'épuisement de l'espace de stockage, qui est utile lorsqu'aucun autre périphérique de stockage de données n'est disponible, et pour les captures de moindre importance, où l'avantage d'une consommation d'espace de stockage moindre l'emporte sur le inconvénient de la réduction des détails. [35]

Netteté de l'image Modifier

La qualité finale d'une image dépend de toutes les transformations optiques de la chaîne de production de l'image. [36] Carl Zeiss, un opticien allemand, souligne que le maillon le plus faible d'une chaîne optique détermine la qualité finale de l'image. Dans le cas de l'appareil photo numérique, une façon simple de décrire ce concept est que l'objectif détermine la netteté maximale de l'image tandis que le capteur d'image détermine la résolution maximale. On peut dire que l'illustration de droite compare un objectif avec une très mauvaise netteté sur un appareil photo à haute résolution, à un objectif avec une bonne netteté sur un appareil photo avec une résolution inférieure.

Méthodes de capture d'image Modifier

Depuis l'introduction des premiers dos numériques, il existe trois méthodes principales pour capturer l'image, chacune basée sur la configuration matérielle du capteur et des filtres de couleur.

Coup unique les systèmes de capture utilisent soit une puce de capteur avec une mosaïque de filtres Bayer, soit trois capteurs d'image séparés (un pour les couleurs additives primaires rouge, vert et bleu) qui sont exposés à la même image via un séparateur de faisceau (voir Caméra à trois CCD ).

Tir multiple expose le capteur à l'image dans une séquence de trois ouvertures ou plus de l'ouverture de l'objectif. Il existe plusieurs méthodes d'application de la technique multi-coups. Le plus courant était à l'origine d'utiliser un seul capteur d'image avec trois filtres passés devant le capteur en séquence pour obtenir les informations de couleur additives. Une autre méthode de prise de vue multiple est appelée Microscanning. Cette méthode utilise une seule puce de capteur avec un filtre Bayer et déplace physiquement le capteur sur le plan de mise au point de l'objectif pour construire une image à plus haute résolution que la résolution native de la puce. Une troisième version combine ces deux méthodes sans filtre Bayer sur la puce.

La troisième méthode s'appelle balayage parce que le capteur se déplace sur le plan focal un peu comme le capteur d'un scanner d'images. Les linéaire ou tri-linéaire les capteurs des caméras à balayage n'utilisent qu'une seule ligne de capteurs photo, ou trois lignes pour les trois couleurs. La numérisation peut être effectuée en déplaçant le capteur (par exemple, lors de l'utilisation d'un échantillonnage couleur co-site) ou en faisant pivoter l'ensemble de la caméra. Une caméra numérique à ligne rotative offre des images d'une résolution totale très élevée.

Le choix de la méthode pour une capture donnée est largement déterminé par le sujet. Il est généralement inapproprié d'essayer de capturer un sujet qui se déplace avec autre chose qu'un système de prise de vue unique. Cependant, la fidélité des couleurs plus élevée et les tailles et résolutions de fichiers plus importantes qui sont disponibles avec les dos multi-vues et à numérisation les rendent plus attrayants pour les photographes commerciaux qui travaillent avec des sujets fixes et des photographies grand format. [ recherche originale ? ]

Les améliorations apportées aux appareils photo à prise unique et au traitement des fichiers d'images au début du 21e siècle ont rendu les appareils photo à prise unique presque totalement dominants, même dans la photographie commerciale haut de gamme.

Filtrer les mosaïques, l'interpolation et l'aliasing Modifier

Le plus courant [ Plage de temps? ] Les appareils photo numériques grand public utilisent une mosaïque de filtres Bayer en combinaison avec un filtre optique anti-aliasing pour réduire l'aliasing dû à l'échantillonnage réduit des différentes images en couleurs primaires. Un algorithme de dématriçage est utilisé pour interpoler les informations de couleur afin de créer une gamme complète de données d'image RVB.

Les caméras qui utilisent une approche 3CCD monocoup avec séparateur de faisceau, une approche multi-coups à trois filtres, un échantillonnage couleur co-site ou un capteur Foveon X3 n'utilisent pas de filtres anti-aliasing, ni de dématriçage.

Le micrologiciel de l'appareil photo ou un logiciel d'un programme de conversion brut tel qu'Adobe Camera Raw interprète les données brutes du capteur pour obtenir une image en couleur, car le modèle de couleur RVB nécessite trois valeurs d'intensité pour chaque pixel : une pour chaque rouge, vert et bleu (les autres modèles de couleurs, lorsqu'ils sont utilisés, nécessitent également trois valeurs ou plus par pixel). Un seul élément de capteur ne peut pas enregistrer simultanément ces trois intensités, et donc un réseau de filtres de couleur (CFA) doit être utilisé pour filtrer sélectivement une couleur particulière pour chaque pixel.

Le motif de filtre Bayer est un motif en mosaïque répétitif 2x2 de filtres de lumière, avec des filtres verts aux coins opposés et des rouges et bleus dans les deux autres positions. La forte proportion de vert tire parti des propriétés du système visuel humain, qui détermine la luminosité principalement à partir du vert et est beaucoup plus sensible à la luminosité qu'à la teinte ou à la saturation. Parfois, un motif de filtre à 4 couleurs est utilisé, impliquant souvent deux teintes de vert différentes. Cela fournit une couleur potentiellement plus précise, mais nécessite un processus d'interpolation légèrement plus compliqué.

Les valeurs d'intensité de couleur non capturées pour chaque pixel peuvent être interpolées à partir des valeurs de pixels adjacents qui représentent la couleur en cours de calcul. [37]

Taille du capteur et angle de vue Modifier

Les appareils photo dotés de capteurs d'image numériques qui sont plus petits que la taille de film typique de 35 mm ont un champ ou un angle de vue plus petit lorsqu'ils sont utilisés avec un objectif de la même distance focale. En effet, l'angle de vue est fonction à la fois de la distance focale et du capteur ou de la taille du film utilisé.

Le facteur de recadrage est relatif au format de film 35 mm. Si un capteur plus petit est utilisé, comme dans la plupart des appareils photo numériques, le champ de vision est rogné par le capteur pour être plus petit que le champ de vision du format plein format 35 mm. Ce rétrécissement du champ de vision peut être décrit comme un facteur de recadrage, un facteur par lequel un objectif à focale plus longue serait nécessaire pour obtenir le même champ de vision sur un appareil photo argentique 35 mm. Les reflex numériques plein format utilisent un capteur de la même taille qu'un cadre de film 35 mm.

Les valeurs courantes pour le recadrage du champ de vision dans les reflex numériques utilisant des capteurs à pixels actifs incluent 1,3x pour certains capteurs Canon (APS-H), 1,5x pour les capteurs Sony APS-C utilisés par Nikon, Pentax et Konica Minolta et pour les capteurs Fujifilm, 1,6 (APS -C) pour la plupart des capteurs Canon,

1,7x pour les capteurs Foveon de Sigma et 2x pour les capteurs 4/3 pouces Kodak et Panasonic actuellement utilisés par Olympus et Panasonic. Les facteurs de recadrage pour les appareils photo compacts et bridge grand public non reflex sont plus importants, souvent 4x ou plus.

Tableau des tailles de capteurs [38]
Taper Largeur (mm) Hauteur (mm) Taille (mm²)
1/3.6" 4.00 3.00 12.0
1/3.2" 4.54 3.42 15.5
1/3" 4.80 3.60 17.3
1/2.7" 5.37 4.04 21.7
1/2.5" 5.76 4.29 24.7
1/2.3" 6.16 4.62 28.5
1/2" 6.40 4.80 30.7
1/1.8" 7.18 5.32 38.2
1/1.7" 7.60 5.70 43.3
2/3" 8.80 6.60 58.1
1" 12.8 9.6 123
4/3" 18.0 13.5 243
APS-C 25.1 16.7 419
35 mm 36 24 864
Arrière 48 36 1728

Les appareils photo numériques sont disponibles dans une large gamme de tailles, de prix et de capacités. En plus des appareils photo numériques à usage général, des appareils photo spécialisés, notamment des équipements d'imagerie multispectrale et des astrographes, sont utilisés à des fins scientifiques, militaires, médicales et autres.

Compacts Modifier

Les appareils photo compacts sont destinés à être portables (pocketable) et sont particulièrement adaptés aux "instantanés" occasionnels.

Beaucoup intègrent un ensemble d'objectif rétractable qui fournit un zoom optique. Dans la plupart des modèles, un couvre-objectif à déclenchement automatique protège l'objectif des éléments. La plupart des modèles renforcés ou résistants à l'eau ne se rétractent pas, et la plupart avec une capacité de superzoom ne se rétractent pas complètement.

Les appareils photo compacts sont généralement conçus pour être faciles à utiliser. Presque tous incluent un mode automatique, ou "mode automatique", qui effectue automatiquement tous les réglages de l'appareil photo pour l'utilisateur. Certains ont également des commandes manuelles. Les appareils photo numériques compacts contiennent généralement un petit capteur qui compromet la qualité d'image pour la compacité et la simplicité. Les images ne peuvent généralement être stockées qu'en utilisant la compression avec perte (JPEG). La plupart ont un flash intégré généralement de faible puissance, suffisant pour les sujets proches. Quelques appareils photo numériques compacts haut de gamme ont une griffe pour se connecter à un flash externe. L'aperçu en direct est presque toujours utilisé pour cadrer la photo sur un écran LCD intégré. En plus de pouvoir prendre des photos, presque tous les appareils photo compacts ont la capacité d'enregistrer des vidéos.

Les compacts ont souvent une capacité macro et des objectifs zoom, mais la plage de zoom (jusqu'à 30x) est généralement suffisante pour la photographie franche mais inférieure à celle disponible sur les appareils photo bridge (plus de 60x), ou les objectifs interchangeables des appareils photo reflex numériques disponibles à un prix beaucoup plus élevé Coût. [39] Les systèmes de mise au point automatique dans les appareils photo numériques compacts sont généralement basés sur une méthodologie de détection de contraste utilisant les données d'image de l'alimentation de prévisualisation en direct de l'imageur principal. Certains appareils photo numériques compacts utilisent un système de mise au point automatique hybride similaire à ce qui est couramment disponible sur les reflex numériques.

En règle générale, les appareils photo numériques compacts intègrent un obturateur à feuilles presque silencieux dans l'objectif, mais diffusent un son d'appareil photo simulé à des fins skeuomorphes.

Pour un faible coût et une petite taille, ces caméras utilisent généralement des formats de capteur d'image avec une diagonale comprise entre 6 et 11 mm, correspondant à un facteur de recadrage compris entre 7 et 4. Cela leur confère des performances en faible luminosité plus faibles, une plus grande profondeur de champ, une mise au point généralement plus proche. capacité et des composants plus petits que les caméras utilisant des capteurs plus grands. Certains appareils photo utilisent un capteur plus grand, y compris, dans le haut de gamme, un appareil photo compact à capteur plein format coûteux, tel que le Sony Cyber-shot DSC-RX1, mais ont des capacités proches de celles d'un reflex numérique.

Une variété de fonctionnalités supplémentaires sont disponibles selon le modèle de l'appareil photo. Ces caractéristiques comprennent le GPS, la boussole, les baromètres et les altimètres. [40]

Depuis 2011, certains appareils photo numériques compacts peuvent prendre des photos en 3D. Ces caméras stéréo compactes 3D peuvent capturer des photos panoramiques 3D avec un double objectif ou même un seul objectif pour les lire sur un téléviseur 3D.

En 2013, Sony a sorti deux modèles de caméras supplémentaires sans écran, à utiliser avec un smartphone ou une tablette, contrôlés par une application mobile via WiFi. [41]

Compacts robustes Modifier

Les appareils photo compacts robustes incluent généralement une protection contre l'immersion, les conditions chaudes et froides, les chocs et la pression. Les termes utilisés pour décrire ces propriétés comprennent respectivement l'imperméabilité à l'eau, au gel, à la chaleur, aux chocs et à l'écrasement. Presque tous les grands fabricants d'appareils photo ont au moins un produit dans cette catégorie. Certains sont étanches à une profondeur considérable jusqu'à 82 pieds (27 m) [ citation requise ] d'autres seulement 10 pieds (3 m), mais seulement quelques-uns flotteront. Les robustes manquent souvent de certaines des fonctionnalités d'un appareil photo compact ordinaire, mais ils ont une capacité vidéo et la majorité peuvent enregistrer du son. La plupart ont une stabilisation d'image et un flash intégré. L'écran tactile LCD et le GPS ne fonctionnent pas sous l'eau.

Caméras d'action Modifier

GoPro et d'autres marques proposent des caméras d'action robustes, petites et pouvant être facilement fixées à un casque, un bras, un vélo, etc. La plupart ont un grand angle et une mise au point fixe, et peuvent prendre des photos et des vidéos, généralement avec du son.

Caméras à 360 degrés Modifier

La caméra à 360 degrés peut prendre des photos ou des vidéos à 360 degrés en utilisant deux objectifs dos à dos et en tirant en même temps. Certains des appareils photo sont Ricoh Theta S, Nikon Keymission 360 et Samsung Gear 360. Nico360 a été lancé en 2016 et revendiqué comme le plus petit appareil photo à 360 degrés au monde avec une taille de 46 x 46 x 28 mm (1,8 x 1,8 x 1,1 po) et un prix moins de 200 $. Avec l'assemblage intégré en mode réalité virtuelle, le Wifi et le Bluetooth, la diffusion en direct peut être effectuée. En raison de sa résistance à l'eau, la Nico360 peut être utilisée comme caméra d'action. [42]

Il existe une tendance à ce que les caméras d'action aient la capacité de filmer à 360 degrés avec une résolution d'au moins 4K. [43]

Caméras pont Modifier

Les appareils photo bridge ressemblent physiquement aux reflex numériques, et sont parfois appelés DSLR-shape ou DSLR-like. Ils offrent des fonctionnalités similaires mais, comme les compacts, ils utilisent un objectif fixe et un petit capteur. Certains appareils photo compacts ont également le mode PSAM. La plupart utilisent l'aperçu en direct pour cadrer l'image. Leur autofocus habituel utilise le même mécanisme de détection de contraste que les compacts, mais de nombreux appareils photo bridge ont un mode de mise au point manuelle et certains ont une bague de mise au point séparée pour un meilleur contrôle.

La grande taille physique et le petit capteur permettent un superzoom et une grande ouverture. Les appareils photo bridge incluent généralement un système de stabilisation d'image pour permettre des expositions à main levée plus longues, parfois mieux que les reflex numériques pour des conditions de faible luminosité.

À partir de 2014, les appareils photo bridge se divisent en deux classes principales en termes de taille de capteur, tout d'abord le capteur plus traditionnel 1/2,3" (tel que mesuré par le format du capteur d'image) qui donne plus de flexibilité dans la conception de l'objectif et permet un zoom portable de 20 à 24 mm (équivalent 35 mm) grand angle jusqu'à plus de 1000 mm supertélé, et d'autre part un capteur 1" qui permet une meilleure qualité d'image en particulier dans des conditions de faible luminosité (ISO plus élevé) mais impose des contraintes plus importantes sur la conception de l'objectif, résultant en des objectifs zoom qui arrêt à 200 mm (ouverture constante, par exemple Sony RX10) ou 400 mm (ouverture variable, par exemple Panasonic Lumix FZ1000) équivalent, correspondant à un facteur de zoom optique d'environ 10 à 15.

Certains appareils photo bridge ont un filetage d'objectif pour fixer des accessoires tels que des convertisseurs grand angle ou téléobjectif ainsi que des filtres tels que des filtres UV ou polarisants circulaires et des pare-soleil. La scène est composée en regardant l'écran ou le viseur électronique (EVF). La plupart ont un délai d'obturation légèrement plus long qu'un reflex numérique. Beaucoup de ces appareils photo peuvent stocker des images dans un format brut en plus de prendre en charge JPEG. [44] La majorité ont un flash intégré, mais seuls quelques-uns ont un sabot.

En plein soleil, la différence de qualité entre un bon appareil photo compact et un reflex numérique est minime, mais les appareils photo bridge sont plus portables, coûtent moins cher et ont une plus grande capacité de zoom. Ainsi, un appareil photo bridge peut mieux convenir aux activités de jour en extérieur, sauf lorsque vous recherchez des photos de qualité professionnelle. [ citation requise ]

Appareils photo sans miroir à objectifs interchangeables Modifier

Fin 2008, un nouveau type de caméra est apparu, appelé appareil photo sans miroir à objectif interchangeable. Il s'agit techniquement d'un appareil photo reflex numérique qui ne nécessite pas de miroir reflex, élément clé du premier. Alors qu'un reflex numérique typique a un miroir qui réfléchit la lumière de l'objectif jusqu'au viseur optique, dans un appareil photo sans miroir, il n'y a pas de viseur optique. Le capteur d'image est exposé à la lumière à tout moment, donnant à l'utilisateur un aperçu numérique de l'image soit sur l'écran LCD arrière intégré, soit sur un viseur électronique (EVF). [45]

Ceux-ci sont plus simples et plus compacts que les reflex numériques car ils n'ont pas de système reflex à objectif. Les MILC, ou appareils photo sans miroir en abrégé, sont livrés avec différentes tailles de capteurs selon la marque et le fabricant, notamment : un petit capteur 1/2,3 pouce, comme il est couramment utilisé dans les appareils photo bridge tels que le Pentax Q d'origine ont un capteur 1/1,7 pouce légèrement plus grand) un capteur 1 pouce un capteur Micro Four Thirds un capteur APS-C trouvé dans la série Sony NEX et α "DSLR-likes", Fujifilm X series, Pentax K-01 et Canon EOS M et certains, comme le Sony α7, utilisent un capteur plein format (35 mm), le Hasselblad X1D étant le premier appareil photo sans miroir moyen format. Certains MILC ont un viseur électronique séparé pour compenser l'absence d'un optique. Dans d'autres appareils photo, l'écran arrière est utilisé comme viseur principal de la même manière que dans les appareils photo compacts. L'un des inconvénients des appareils photo hybrides par rapport à un reflex numérique classique est l'autonomie de leur batterie en raison de la consommation d'énergie du viseur électronique, mais cela peut être atténué par un réglage à l'intérieur de l'appareil photo sur certains modèles. [46]

Olympus et Panasonic ont sorti de nombreux appareils photo Micro Four Thirds avec des objectifs interchangeables entièrement compatibles les uns avec les autres sans aucun adaptateur, tandis que d'autres ont des montures propriétaires. En 2014, Kodak a lancé son premier appareil photo système Micro Four Third. [47]

Depuis mars 2014 [mise à jour] , les appareils photo sans miroir deviennent rapidement attrayants pour les amateurs comme pour les professionnels en raison de leur simplicité, de leur compatibilité avec certains objectifs reflex numériques et de leurs fonctionnalités qui correspondent à la plupart des reflex numériques actuels. [48]

Caméras modulaires Modifier

Alors que la plupart des appareils photo numériques à objectifs interchangeables sont dotés d'une monture d'objectif, il existe également un certain nombre d'appareils photo modulaires, où l'obturateur et le capteur sont intégrés au module d'objectif.

Le premier appareil photo modulaire de ce type a été le Minolta Dimâge V en 1996, suivi du Minolta Dimâge EX 1500 en 1998 et du Minolta MetaFlash 3D 1500 en 1999. En 2009, Ricoh a lancé l'appareil photo modulaire Ricoh GXR.

Au CES 2013, Sakar International a annoncé le Polaroid iM1836, un appareil photo 18 MP avec capteur 1" avec objectif à capteur interchangeable. Un adaptateur pour les objectifs Micro Four Thirds, Nikon et K-mount était prévu pour être livré avec l'appareil photo. [49]

Il existe également un certain nombre de modules de caméra supplémentaires pour smartphones, ils sont appelés style lentille caméras (caméra à objectif ou objectif intelligent). Ils contiennent tous les composants essentiels d'un appareil photo numérique à l'intérieur d'un module en forme d'objectif DSLR, d'où le nom, mais manquent de toute sorte de viseur et de la plupart des commandes d'un appareil photo ordinaire. Au lieu de cela, ils sont connectés sans fil et/ou montés sur un smartphone pour être utilisés comme sortie d'affichage et actionner les différentes commandes de l'appareil photo.

Les caméras de type objectif comprennent :

    Appareils photo "Smart Lens" ou "SmartShot" de la série QX, annoncés et sortis mi 2013 avec le Cyber-shot DSC-QX10. En janvier 2014, une mise à jour du firmware a été annoncée pour les DSC-QX10 et DSC-QX100. [50] En septembre 2014, Sony a annoncé le Cyber-shot DSC-QX30 ainsi que l'Alpha ILCE-QX1, [51][52] le premier un ultrazoom avec un zoom optique 30x intégré, le second optant pour un monture Sony E interchangeable au lieu d'un objectif intégré.
  • La série d'appareils photo à objectif intelligent Kodak PixPro, annoncée en 2014. Il s'agit notamment du zoom optique 5X SL5, du zoom optique 10X SL10 et du zoom optique 25X SL25, tous dotés de capteurs 16 MP et d'un enregistrement vidéo 1080p, à l'exception du SL5 qui plafonne à 720p. [53] Appareil photo à objectif intelligent IU680 de la marque Vivitar, propriété de Sakar, annoncé en 2014. [54]
  • Appareil photo à objectif Olympus Air A01, annoncé en 2014 et sorti en 2015, l'appareil photo à objectif est une plate-forme ouverte avec un système d'exploitation Android et peut se détacher en 2 parties (module de capteur et objectif), tout comme le Sony QX1, et tous les Micro Four Thirds compatibles les objectifs peuvent ensuite être fixés à la monture d'objectif intégrée du module capteur de la caméra. [55][56]

Appareils photo reflex numériques à objectif unique (DSLR) Modifier

Les appareils photo reflex numériques à objectif unique (DSLR) utilisent un miroir reflex qui peut refléter la lumière et peut également pivoter d'une position à une autre et revenir à la position initiale. Par défaut, le miroir reflex est réglé à 45 degrés par rapport à l'horizontale, bloque la lumière vers le capteur et réfléchit la lumière de l'objectif vers le penta-miroir/prisme de l'appareil photo reflex numérique et après quelques réflexions arrive dans le viseur. Le miroir reflex est tiré horizontalement sous le penta-miroir/prisme lorsque le déclencheur est enfoncé à fond, de sorte que le viseur sera sombre et que la lumière/l'image peuvent frapper directement le capteur au moment de l'exposition (réglage de la vitesse).

La mise au point automatique est réalisée à l'aide de capteurs dans le boîtier du miroir. Certains reflex numériques disposent d'un mode « live view » qui permet le cadrage à l'aide de l'écran avec l'image du capteur.

Ces caméras ont des capteurs beaucoup plus gros que les autres types, généralement de 18 mm à 36 mm en diagonale (facteur de recadrage 2, 1,6 ou 1). Le capteur plus grand permet à plus de lumière d'être reçue par chaque pixel, ce qui, combiné aux lentilles relativement grandes, offre des performances supérieures en basse lumière. Pour le même champ de vision et la même ouverture, un capteur plus grand donne une mise au point moins profonde. Ils utilisent des lentilles interchangeables pour plus de polyvalence. Certains objectifs sont généralement conçus pour un usage reflex numérique uniquement, mais la tendance récente veut que les objectifs puissent également être utilisés dans une caméra vidéo à objectif détachable avec ou sans adaptateur.

Appareils photo numériques (DSC) Modifier

L'appareil photo numérique (DSC), comme les appareils photo Sony DSC, est un type d'appareil photo qui n'utilise pas de miroir reflex. Les DSC sont comme des appareils photo compacts et constituent le type d'appareils photo le plus courant, en raison de son prix confortable et de sa qualité.

Caméras DSLT à miroir fixe Modifier

Les appareils photo avec miroirs semi-transparents fixes, également connus sous le nom d'appareils photo DSLT, tels que les appareils photo Sony SLT, sont à objectif unique sans miroir reflex mobile comme dans un reflex numérique conventionnel. Un miroir semi-transparent transmet une partie de la lumière au capteur d'image et réfléchit une partie de la lumière le long du chemin vers un pentaprisme/pentamiroir qui va ensuite à un viseur optique (OVF) comme c'est le cas avec un miroir reflex dans les appareils photo reflex numériques. La quantité totale de lumière n'est pas modifiée, juste une partie de la lumière parcourt un chemin et une partie parcourt l'autre. Les conséquences sont que les appareils photo reflex numériques devraient filmer un demi-arrêt différemment des reflex numériques. L'un des avantages de l'utilisation d'un appareil photo DSLT est que les moments aveugles qu'un utilisateur de reflex numérique subit pendant que le miroir réfléchissant est déplacé pour envoyer la lumière au capteur au lieu du viseur n'existent pas pour les appareils photo DSLT. Parce qu'il n'y a pas de moment où la lumière ne se déplace pas le long des deux chemins, les appareils photo DSLT bénéficient d'un suivi continu de la mise au point automatique. Ceci est particulièrement utile pour la prise de vue en mode rafale dans des conditions de faible luminosité et également pour le suivi lors de la prise de vidéo. [ citation requise ]

Télémètres numériques Modifier

Un télémètre est un appareil permettant de mesurer la distance du sujet, dans le but d'ajuster la mise au point de l'objectif d'un appareil photo en conséquence (contrôleur en boucle ouverte). Le télémètre et le mécanisme de mise au point de l'objectif peuvent être couplés ou non. Dans le langage courant, le terme « caméra télémétrique » est interprété de manière très étroite pour désigner les caméras à mise au point manuelle avec un télémètre optique à lecture visuelle basé sur la parallaxe. La plupart des appareils photo numériques réalisent la mise au point grâce à l'analyse de l'image capturée par l'objectif et l'estimation de la distance, si elle est fournie, n'est qu'un sous-produit du processus de mise au point (contrôleur en boucle fermée). [57]

Systèmes de caméras linéaires Modifier

Une caméra à balayage linéaire a traditionnellement une seule rangée de capteurs de pixels, au lieu d'une matrice d'entre eux. Les lignes sont transmises en continu à un ordinateur qui les relie les unes aux autres et crée une image. [58] [59] Cela se fait le plus souvent en connectant la sortie de la caméra à une carte d'acquisition d'images qui réside dans un slot PCI d'un ordinateur industriel. La carte d'acquisition d'images agit pour mettre en mémoire tampon l'image et parfois fournir un certain traitement avant de la livrer au logiciel informatique pour traitement. Les processus industriels nécessitent souvent des mesures de hauteur et de largeur effectuées par des systèmes numériques à balayage linéaire. [60]

Plusieurs rangées de capteurs peuvent être utilisées pour réaliser des images colorées, ou pour augmenter la sensibilité par TDI (temporisation et intégration).

De nombreuses applications industrielles nécessitent un large champ de vision. Traditionnellement, il est assez difficile de maintenir une lumière constante sur de grandes zones 2D. Avec une caméra à balayage linéaire, tout ce qui est nécessaire est de fournir un éclairage uniforme sur la « ligne » actuellement visualisée par la caméra. Cela permet d'obtenir des images nettes d'objets qui passent devant la caméra à grande vitesse.

De tels appareils photo sont également couramment utilisés pour réaliser des photos d'arrivée, afin de déterminer le vainqueur lorsque plusieurs concurrents franchissent la ligne d'arrivée presque en même temps. Ils peuvent également être utilisés comme instruments industriels pour l'analyse de processus rapides.

Les caméras à balayage linéaire sont également largement utilisées dans l'imagerie à partir de satellites (voir scanner à balai poussoir). Dans ce cas, la rangée de capteurs est perpendiculaire à la direction de déplacement du satellite. Les caméras linéaires sont largement utilisées dans les scanners. Dans ce cas, la caméra se déplace horizontalement.

Caméra autonome Modifier

Les caméras autonomes peuvent être utilisées comme caméra distante. Un type pèse 2,31 onces (65,5 g), avec une forme de périscope, un indice de résistance à l'eau et à la poussière IPx7 et peut être amélioré à IPx8 en utilisant un capuchon. Ils n'ont pas de viseur ni d'écran LCD. L'objectif est un objectif grand angle ou standard de 146 degrés, avec une mise au point fixe. Il peut avoir un microphone et un haut-parleur, et il peut prendre des photos et des vidéos. En tant que caméra distante, une application téléphonique utilisant Android ou iOS est nécessaire pour envoyer des vidéos en direct, modifier les paramètres, prendre des photos ou utiliser le laps de temps. [61]

Caméras Superzoom Modifier

Les appareils photo numériques à super zoom sont des appareils photo numériques qui peuvent zoomer très loin. Ces caméras superzoom conviennent aux personnes myopes.

La série HX est une série contenant les caméras superzoom de Sony comme les HX20V, HX90V et le dernier HX99. HX signifie HyperXoom.

Caméra à champ lumineux Modifier

Ce type d'appareil photo numérique capture des informations sur le champ lumineux émanant d'une scène, c'est-à-dire l'intensité de la lumière dans une scène, ainsi que la direction dans laquelle les rayons lumineux se déplacent dans l'espace. Cela contraste avec un appareil photo numérique conventionnel, qui n'enregistre que l'intensité lumineuse.

De nombreux appareils ont un appareil photo numérique intégré, y compris, par exemple, les smartphones, les téléphones portables, les PDA et les ordinateurs portables. Les caméras intégrées stockent généralement les images au format de fichier JPEG.

Les téléphones portables intégrant des appareils photo numériques ont été introduits au Japon en 2001 par J-Phone. En 2003, les téléphones avec appareil photo ont dépassé les ventes des appareils photo numériques autonomes, et en 2006, ils ont dépassé les ventes des appareils photo argentiques et numériques autonomes. Cinq milliards de téléphones avec appareil photo ont été vendus en cinq ans et, en 2007, plus de la moitié de la base installée de tous les téléphones mobiles étaient des téléphones avec appareil photo. Les ventes de caméras séparées ont culminé en 2008. [62]

Les ventes d'appareils photo numériques traditionnels ont diminué en raison de l'utilisation croissante des smartphones pour la photographie occasionnelle, qui permettent également une manipulation et un partage plus faciles des photos grâce à l'utilisation d'applications et de services Web. Les « caméras bridge », en revanche, ont tenu bon avec des fonctionnalités qui manquent à la plupart des caméras pour smartphones, telles que le zoom optique et d'autres fonctionnalités avancées. [63] [64] Les reflex numériques ont également perdu du terrain face aux appareils photo à objectif interchangeable sans miroir (MILC) offrant la même taille de capteur dans un appareil photo plus petit. Quelques appareils coûteux utilisent un capteur plein format comme appareils photo reflex numériques professionnels.

En réponse à la commodité et à la flexibilité des appareils photo pour smartphones, certains fabricants ont produit des appareils photo numériques « intelligents » qui combinent les fonctionnalités des appareils photo traditionnels avec celles d'un smartphone. En 2012, Nikon et Samsung ont lancé le Coolpix S800c et l'appareil photo Galaxy, les deux premiers appareils photo numériques à exécuter le système d'exploitation Android. Étant donné que cette plate-forme logicielle est utilisée dans de nombreux smartphones, ils peuvent s'intégrer à des services (tels que les pièces jointes aux e-mails, les réseaux sociaux et les sites de partage de photos) comme le font les smartphones, et utiliser également d'autres logiciels compatibles Android. [63]

Dans une inversion, certains fabricants de téléphones ont introduit des smartphones avec des appareils photo conçus pour ressembler aux appareils photo numériques traditionnels. Nokia a sorti le 808 PureView et le Lumia 1020 en 2012 et 2013, les deux appareils exécutent respectivement les systèmes d'exploitation Symbian et Windows Phone, et tous deux incluent un appareil photo de 41 mégapixels (avec un accessoire de prise d'appareil photo pour ce dernier). [65] De même, Samsung a présenté le Galaxy S4 Zoom, doté d'un appareil photo de 16 mégapixels et d'un zoom optique 10x, combinant les caractéristiques du Galaxy S4 Mini avec l'appareil photo Galaxy. [66] Panasonic Lumix DMC-CM1 est un smartphone Android KitKat 4.4 avec 20MP, capteur 1", le plus grand capteur jamais conçu pour un smartphone, avec un objectif fixe Leica équivalent à 28 mm à F2.8, peut prendre des images RAW et des vidéos 4K, a 21 mm d'épaisseur.[67] De plus, en 2018, le Huawei P20 Pro est un Android Oreo 8.1 doté de trois objectifs Leica à l'arrière du smartphone avec un capteur RVB 40MP 1/1,7" comme premier objectif, un capteur monochrome 20MP 1/2,7" comme premier objectif deuxième objectif et capteur RVB 8MP 1/4" avec zoom optique 3x comme troisième objectif. [68] La combinaison du premier objectif et du deuxième objectif produira une image bokeh avec une plage dynamique élevée plus large, tandis que la combinaison du premier objectif mégapixel et du zoom optique produira un zoom numérique maximum 5x sans perte de qualité en réduisant la taille de l'image à 8MP. [69]

Les caméras à champ lumineux ont été introduites en 2013 avec un produit grand public et plusieurs produits professionnels.

Après une forte baisse des ventes en 2012, les ventes d'appareils photo numériques grand public ont de nouveau diminué en 2013 de 36 %. En 2011, les appareils photo numériques compacts se vendaient 10 millions par mois. En 2013, les ventes sont tombées à environ 4 millions par mois. Les ventes de reflex numériques et de MILC ont également diminué en 2013 de 10 à 15 % après près de dix ans de croissance à deux chiffres. [70] Les ventes unitaires mondiales d'appareils photo numériques sont en baisse continue, passant de 148 millions en 2011 à 58 millions en 2015 et tendent à diminuer davantage au cours des années suivantes. [71]

Les ventes d'appareils photo argentiques ont atteint leur apogée à environ 37 millions d'unités en 1997, tandis que les ventes d'appareils photo numériques ont commencé en 1989. En 2008, le marché des appareils photo argentiques était mort et les ventes d'appareils photo numériques ont atteint leur apogée à 121 millions d'unités en 2010. En 2002, les téléphones portables avec un appareil photo intégré avait été introduit et en 2003, le téléphone portable avec un appareil photo intégré s'était vendu à 80 millions d'unités par an. En 2011, les téléphones portables avec appareil photo intégré se vendaient par centaines de millions par an, ce qui entraînait une baisse des appareils photo numériques. En 2015, les ventes d'appareils photo numériques étaient de 35 millions d'unités, soit seulement moins d'un tiers des ventes d'appareils photo numériques à leur apogée et également légèrement moins que le nombre d'appareils photo argentiques vendus à leur apogée. [ citation requise ]

Transfert de photos Modifier

De nombreux appareils photo numériques peuvent se connecter directement à un ordinateur pour transférer des données : -

  • Les premières caméras utilisaient le port série PC. L'USB est désormais la méthode la plus largement utilisée (la plupart des caméras sont visibles comme stockage de masse USB), bien que certaines aient un port FireWire. Certains appareils photo utilisent le mode USB PTP pour la connexion au lieu de l'USB MSC, certains offrent les deux modes.
  • D'autres appareils photo utilisent des connexions sans fil, via Bluetooth ou IEEE 802.11Wi-Fi, comme le Kodak EasyShare One. Les cartes mémoire Wi-Fi intégrées (SDHC, SDXC) peuvent transmettre des images, des vidéos et d'autres fichiers stockés vers des ordinateurs ou des smartphones. Les systèmes d'exploitation mobiles tels qu'Android permettent le téléchargement et la sauvegarde automatiques ou le partage d'images via Wi-Fi vers le partage de photos et les services cloud.
  • Les appareils photo avec Wi-Fi intégré ou des adaptateurs Wi-Fi spécifiques permettent principalement le contrôle de l'appareil photo, en particulier le déclenchement, le contrôle de l'exposition et plus encore (attache) à partir d'applications d'ordinateur ou de smartphone en plus du transfert de données multimédias.
  • Les téléphones-appareils photo et certains appareils photo numériques autonomes haut de gamme utilisent également des réseaux cellulaires pour se connecter et partager des images. La norme la plus courante sur les réseaux cellulaires est le service de messagerie multimédia MMS, communément appelé « messagerie photo ». La deuxième méthode avec les smartphones consiste à envoyer une image en pièce jointe d'un e-mail. Cependant, de nombreux anciens téléphones-appareils photo ne prennent pas en charge le courrier électronique.

Une alternative courante est l'utilisation d'un lecteur de carte qui peut être capable de lire plusieurs types de supports de stockage, ainsi qu'un transfert de données à grande vitesse vers l'ordinateur. L'utilisation d'un lecteur de carte évite également de vider la batterie de l'appareil photo pendant le processus de téléchargement. Un lecteur de carte externe permet un accès direct et pratique aux images sur une collection de supports de stockage. Mais si une seule carte de stockage est utilisée, la déplacer d'avant en arrière entre l'appareil photo et le lecteur peut être gênant. De nombreux ordinateurs ont un lecteur de carte intégré, au moins pour les cartes SD.

Impression de photos Modifier

De nombreux appareils photo modernes prennent en charge la norme PictBridge, ce qui leur permet d'envoyer des données directement à une imprimante d'ordinateur compatible PictBridge sans avoir besoin d'un ordinateur.

La connectivité sans fil peut également permettre d'imprimer des photos sans connexion par câble.

Un appareil photo à impression instantanée, est un appareil photo numérique avec une imprimante intégrée. [72] Cela confère une fonctionnalité similaire à celle d'un appareil photo instantané qui utilise un film instantané pour générer rapidement une photographie physique. Ces appareils photo non numériques ont été popularisés par Polaroid avec le SX-70 en 1972. [73]

Affichage des photos Modifier

De nombreux appareils photo numériques incluent un port de sortie vidéo. Habituellement sVideo, il envoie un signal vidéo de définition standard à un téléviseur, permettant à l'utilisateur de montrer une image à la fois. Des boutons ou des menus sur l'appareil photo permettent à l'utilisateur de sélectionner la photo, de passer de l'une à l'autre, ou d'envoyer automatiquement un "diaporama" au téléviseur.

HDMI a été adopté par de nombreux fabricants d'appareils photo numériques haut de gamme pour afficher des photos dans leur qualité haute résolution sur un téléviseur HD.

En janvier 2008, Silicon Image a annoncé une nouvelle technologie pour envoyer des vidéos depuis des appareils mobiles vers un téléviseur sous forme numérique. MHL envoie des images sous forme de flux vidéo, jusqu'à une résolution de 1080p, et est compatible avec HDMI. [74]

Certains enregistreurs de DVD et téléviseurs peuvent lire les cartes mémoire utilisées dans les appareils photo, mais plusieurs types de lecteurs de cartes flash ont une capacité de sortie TV.

Les caméras peuvent être équipées d'une quantité variable d'étanchéité environnementale pour fournir une protection contre les éclaboussures d'eau, l'humidité (humidité et brouillard), la poussière et le sable, ou une étanchéité complète jusqu'à une certaine profondeur et pendant une certaine durée. Cette dernière est l'une des approches pour permettre la photographie sous-marine, l'autre approche étant l'utilisation de boîtiers étanches. De nombreux appareils photo numériques étanches sont également antichoc et résistants aux basses températures.

Certaines caméras étanches peuvent être équipées d'un boîtier étanche pour augmenter la plage de profondeur opérationnelle. La gamme d'appareils photo compacts Olympus 'Tough' en est un exemple.

De nombreux appareils photo numériques ont des modes prédéfinis pour différentes applications. Dans les limites d'une exposition correcte, divers paramètres peuvent être modifiés, notamment l'exposition, l'ouverture, la mise au point, la mesure de la lumière, la balance des blancs et une sensibilité équivalente. Par exemple, un portrait peut utiliser une ouverture plus large pour rendre l'arrière-plan flou et rechercher et se concentrer sur un visage humain plutôt que sur un autre contenu d'image.

Peu de caméras sont équipées d'une fonction d'enregistrement de notes vocales (audio uniquement). [75]

Modes scène Modifier

Les fournisseurs implémentent une variété de modes scène dans les micrologiciels des caméras à diverses fins, comme un "mode paysage" qui empêche la mise au point sur des vitres pluvieuses et/ou teintées comme un pare-brise, et un "mode sport" qui réduit le flou de mouvement des sujets en mouvement en réduisant le temps d'exposition grâce à une sensibilité accrue à la lumière. Les micrologiciels peuvent être équipés de la possibilité de sélectionner automatiquement un mode scène approprié grâce à l'intelligence artificielle. [76] [77]