RSS

Archives de Catégorie: Sciences

50 Prédictions Sur L’Intelligence Artificielle (IA) En 2018

IA

On ne prend pas trop de risques en prédisant que l’Intelligence Artificielle (IA) continuera à faire partie des tendances de 2018. Mais les 50 prédictions qui suivent, édictées par des professionnels du secteur, la voient devenir plus pratique et plus utile, jouant un rôle dans l’automatisation de certains emplois, et permettant d’en améliorer d’autres, s’associant au machine learning (ML) et au big data pour de meilleures informations, au milieu d’une prolifération de chatbots au sein des entreprises.

« L’industrie automobile est en pleine révolution, et les OEM et les manufacturiers sont de plus en plus conscients qu’ils doivent adopter l’IA dès que possible pour prendre en compte non seulement l’environnement externe du véhicule, mais aussi pour intégrer ce qui se passe dans l’habitacle. Les véhicules autonomes ou semi-autonomes auront besoin d’une vision numérique alimentée par une IA pour garantir une conduite sûre, un mode automatique sans accrocs pour les passagers, et une expérience de voyage enrichie basée sur le bien-être émotionnel et cognitifs des occupants ». — Dr. Rana el Kaliouby, PDG et co-fondatrice de Affectiva.

« En 2018, je pense que nous verrons beaucoup de nouveautés, comme des systèmes d’IA qui peuvent s’expliquer directement (à la première personne) au lieu d’être évalués par un intervenant externe (à la troisième personne) ; mais aussi un affaiblissement de la neutralité du net, en raison d’un apport de contenu toujours plus personnalisé et optimisé par des IA ; et enfin l’éclatement de la bulle du deep learning. Les startups qui se sont contentées d’appliquer l’IA à un domaine particulier ne seront plus surévaluées.  Celles qui survivront proposeront une évolution conséquente et concrète des possibilités de l’IA. Nous verrons également au moins un accident mortel de plus impliquant les véhicules autonomes sur les routes, avec la réalisation qu’atteindre une conduite autonome du niveau de celle de l’être humain demandera bien plus de temps pour être testée et perfectionnée que les prévisions actuelles un peu optimistes ». — Monty Barlow, responsable du machine learningCambridge Consultants.

« L’IA va se mettre à répondre à la question « Pourquoi ? ». J’ai appris deux choses en observant les interactions des utilisateurs avec les premières IA : 1) Les êtres humains ne supportent de ne pas savoir ce que fait l’IA et 2), les IA ont du mal à expliquer aux humains ce qu’elles font. Les utilisateurs frustrés qui demandent « Pourquoi ? » sont confrontés à la seule explication des IA aujourd’hui : « Parce que je vous le dis ». En 2018, les créateurs d’IA ne pourront pas se satisfaire d’éluder ainsi le besoin des utilisateurs pour plus de transparence en excusant le manque de communication par le fait que la machine traite des milliers de variables par secondes. Afin de convaincre les utilisateurs que le système d’IA travaille à atteindre un objectif qu’ils partagent, les concepteurs vont développer en priorité des formes avancées de comptabilité, de comptes rendus et de systèmes de recherche, qui permettent aux utilisateurs de demander « Pourquoi ? » en réponse à des actions spécifiques ». — Or Shani, PDG de Albert.

« Les prix dynamiques personnalisés. Nous prévoyons une tendance chez les principaux sites d’e-commerce (surtout dans la mode, l’électronique, l’alimentation et la pharmacie) allant vers des prix personnalisés en temps réel. Ce système de prix en ligne et en magasin sera basé sur les comportements, l’offre, la demande et la concurrence. Contrairement aux prix dynamiques actuels, qui changent selon des variables qui ne sont pas liées aux clients, les prix personnalisés seront uniques en fonction de l’acheteur. Les prix changeront fréquemment selon les offres personnalisées. L’expérience en ligne sera concurrencée hors ligne avec les réserves en magasin et leurs étiquettes électroniques. Il y aura un prix affiché sur le site ou en rayon, et un prix personnalisé, une offre unique à chaque client ». — Dan Baruchi, PDG de Personali.

suite et fin

Publicités
 
1 commentaire

Publié par le 19 janvier 2018 dans Education - information, général, Sciences

 

Étiquettes : , , , ,

La révolution de l’intelligence artificielle commence – Pour la 1ere fois des machines lisent et comprennent mieux que les humains !!

Encore un domaine dans lequel l’intelligence artificielle s’en sort mieux que les humains : la compréhension et la lecture. Deux I.A. développées par Microsoft et Alibaba viennent de réussir cet exploit presque au même moment. Étrange coïncidence.

L’intelligence artificielle poursuit inexorablement sa marche vers la suprématie sur l’être humain dans tous les domaines. Une récente étude de 352 experts en machine learning indique d’ailleurs que cela pourrait arriver dans moins de 50 ans. De quoi donner raison à Stephen Hawking ou à Elon Musk qui ne cessent de tirer la sonnette d’alarme sur le danger que représente le développement non contrôlé de l’I.A.

————————————————————-

Des réseaux de neurones artificiels développés et entraînés par le chinois Alibaba d’un côté et par l’américain Microsoft de l’autre ont obtenu de meilleurs scores que les humains au test de compréhension de l’université Stanford. Une première.

“Alors que les ordinateurs ont battu les humains à des jeux complexes comme les échecs, où la puissance de calcul brute et une mémoire infaillible ont donné un avantage non négligeable aux robots, les langages sont généralement perçus comme plus difficiles à maîtriser par les machines. Jusqu’à maintenant”,dévoile le South China Morning Post (SCMP).

Le 15 janvier, le géant de l’informatique chinois Alibaba (qui possède le South China Morning Post) a annoncé dans un communiqué qu’une intelligence artificielle qu’il a développée avait obtenu un score de 82,44 au SQuAD (un test de lecture de l’université Stanford consistant à répondre à plus de 100 000 questions basées sur 500 articles de Wikipédia), surpassant le score de 82,304 de ses rivaux humains.

Le même jour, Microsoft annonçait que son propre réseau de neurones profonds avait quant à lui obtenu 82,65 à ce même test, marquant ainsi “la première fois que des machines battent des êtres de chair [dans le domaine de la lecture et de la compréhension]”, insiste The Inquirer.

Des réponses précises pour un fonctionnement optimal

Les résultats obtenus suite aux derniers tests démontrent que « des questions objectives telles que ‘qu’est-ce qui cause la pluie ?’ peuvent désormais donner lieu à des réponses extrêmement précises de la part des machines », comme l’explique Luo Si, l’un des scientifiques travaillant sur l’IA d’Alibaba. Mais quelles pourraient être les implications d’une telle avancée ?

Cette victoire pourrait avoir de larges implications sur la façon dont les entreprises déploient l’apprentissage automatique tel que celui développé par Alibaba et Microsoft. “Nous estimons que la technologie mise en œuvre pourra avoir de nombreuses applications, notamment dans le service à la clientèle, les didacticiels de musées ou pour répondre aux questions des patients, ce qui libérera les hommes comme jamais”, indique, au site hongkongais du SCMP, Si Luo, responsable du traitement du langage naturel à la branche de recherche d’Alibaba.

Pour autant, les scientifiques d’Alibaba soulignent que leur système actuel “n’offre un fonctionnement optimal qu’avec des questions qui appellent des réponses précises.” Si les expressions sont trop vagues, pas correctes d’un point de vue grammatical ou qu’il n’y a pas de “bonne réponse”, la machine ne fonctionnera pas correctement.

——————————————————–

Et c’est sans compter les assistants personnels qui se trouvent dans les smartphones, ordinateurs, et autres objets connectés. Vous pouvez déjà admirer les progrès de l’I.A. en matière de compréhension et de lecture en posant toutes sortes de questions à votre assistant préféré : Google Assistant, Siri, Cortana, ou encore Alexa (Amazon) s’en sortent déjà plutôt pas mal. Ils pourraient bientôt avoir réponse à tout.

Médias 

 
1 commentaire

Publié par le 17 janvier 2018 dans général, Sciences

 

Étiquettes : , , , , , , , , ,

Nous entrons, pour quelques décennies, dans un cycle de « refroidissement global ». PRÉPAREZ-VOUS…

Nous entrons, pour quelques décennies, dans un cycle de « refroidissement global ». PRÉPAREZ-VOUS…
Je vous traduis ici l’exposé théorique et scientifique de David Dilley, ancien météorologue du NOAA (National Oceanic and Atmospheric Administration), aujourd’hui scientifique senior à l’institut Global Weather Oscillations Inc. Voici un résumé qui, je l’espère, vous éclairera sur une réalité climatique en cours qui, sans nul doute, fait ses preuves sur nos thermomètres depuis plusieurs jours!

L’augmentation et la diminution du dioxyde de carbone est directement liée aux cycles d’alternance de réchauffement global, de pause des températures et de périodes glaciaires. Ces cycles consistent en une hausse des températures globales pendant quelques années, accompagnée d’une hausse du dioxyde de carbone, suivie par une période de pause ou de refroidissement global, lequel amène avec lui une chute « proportionnelle » du dioxyde de carbone.

Les mesures de dioxyde de carbone suivent l’élévation de la température globale, elles augmentent à la suite de la hausse des températures, il n’est donc pas responsable de l’élévation de la température, mais ce sont les températures globales qui suscitent l’augmentation du dioxyde de carbone. Le dioxyde de carbone qui est relié à l’augmentation des températures est, sans contredit, D’ORIGINE NATURELLE et non pas d’origine humaine.

La ligne rouge indique la température globale et la ligne bleue indique les niveaux de dioxyde de carbone.

La ligne rouge indique la température globale et la ligne bleue
indique les niveaux de dioxyde de carbone.

Il y 7000 ans, la température globale a atteint des sommets, le taux de dioxyde de carbone a suivi la courbe de hausse des températures, ce qui témoigne que la pollution humaine n’a pas d’impact sur ce cycle de réchauffement planétaire. Bien sûr, les émissions actuelles de dioxyde de carbone d’origine humaine n’ont rien de positives et ne contribuent certainement pas à maintenir un équilibre environnemental/écologique, mais elles n’ont ultimement pas d’impact sur le climat global.

Depuis plus de 17 ans, les températures globales sont en « mode pause » et selon les climatologues et scientifiques, dont David Dilley (NOAA), John Casey (conseiller pendant 35 ans pour la politique spatiale des Etats-Unis), ainsi que plusieurs autres, les prochaines décennies tendent vers une baisse des températures globales et vers une baisse du dioxyde de carbone.

noglobalwarming

Dilley et Casey croient et démontrent que les émissions industrielles de CO2 ne sont pas suffisamment graves pour causer un changement sur le climat terrestre et que le changement climatique est entièrement affecté par le soleil. Ils dénoncent le « réchauffement climatique » comme étant un gigantesque mensonge, le plus grand scandale scientifique de tous les temps!

La « théorie Milankovitch« , élaborée en 1941, explique l’alternance des cycles glaciaires et interglaciaires durant le Quaternaire (période géologique la plus récente sur l’échelle des temps géologiques). Une glaciation se produit lorsque les hautes latitudes de l’hémisphère nord reçoivent un minimum de rayonnement solaire durant l’été. Trois paramètres astronomiques jouent un rôle important dans la distribution de l’insolation sous les hautes latitudes : l’excentricité de l’orbite terrestre, l’obliquité de l’axe de rotation de la Terre par rapport au plan de l’écliptique et la précession des équinoxes.

Dilley, soutenant la « théorie de Milankovitch », ajoute que les forces de marée gravitationnelles de la Lune et du Soleil, « cycle lunisolaire » (qui se produit à tous les 9 ans) appliquent une force qui a un effet sur l’insolation de la Terre par rapport à sa position. Dilley nous annonce, dès 2019, un changement dramatique au niveau des températures mondiales, une chute du thermomètre pendant au moins 3 décennies!

Les conséquences seront évidemment majeures pour tous les habitants de la terre puisque la première industrie qui sera affectée est l’agriculture avec, selon certaines estimations optimistes pour le climat nord-américain, un déficit de 3 semaines pour la culture des fruits et des légumes. Les grands cours d’eau qui permettent les importations et les exportations de marchandises, comme les Grands Lacs et la rivière Mississippi, pourraient devenir des étendues de glace impossible à naviguer. L’expansion des glaces fera le bonheur des ours polaires, mais les autochtones du Grand Nord vont littéralement geler. Les peuples logés dans des secteurs où la température est normalement élevée vont être forcés de changer drastiquement leurs habitudes de vie. Le refroidissement causera aussi, et surtout, une augmentation des volcans qui vont entrer en éruption puisque l’activité gravitationnelle expliquée par la « théorie Milankovitch » va créer un grand stress sur le noyau terrestre, ce qui aura forcément une incidence sur la croûte terrestre, donc une augmentation des séismes majeurs.

Une augmentation des grands tremblements de terre est prévue pour 2018 en raison du ralentissement périodique de la rotation de la Terre

 
1 commentaire

Publié par le 3 janvier 2018 dans Climat - Environnement, général, Sciences

 

Étiquettes : , , , , , , ,

Les 7 percées les plus marquantes de 2017 prouvent que nous vivons déjà dans le futur !

7 percées

En 2017, les chercheurs ont transformé la science-fiction en réalité scientifique (des progrès des technologies d’édition génétique aux améliorations de l’intelligence artificielle et de l’informatique quantique), cette année a certainement été riche en percées. Pour cette fin de 2017, nous avons dressé une liste des développements les plus marquants de cette année qui repoussent les limites vers un avenir meilleur.

Un ventre artificiel pour soutenir la vie

Il convient peut-être d’ouvrir cette liste avec une technologie qui pourrait potentiellement sauver des vies à l’avenir. En avril 2017, une équipe de médecins du Children’s Hospital de Philadelphie a publié une étude dans la revue Nature Communications qui décrit en détail l’utilisation réussie d’un utérus artificiel.

L’appareil, un biobag transparent spécialisé rempli d’un liquide qui lui permet d’imiter l’environnement à l’intérieur de l’utérus, a réussi à loger un agneau âgé de 23 semaines. Cette matrice artificielle peut aider à sauver la vie de bébés prématurés. L’équipe qui travaille sur cette technologie s’attend à ce qu’elle soit bientôt prête à être utilisée par les humains.

Lisez l’histoire originale ici. (Anglais)

Pour la première fois aux États-Unis, un embryon a été édité

Les êtres humains génétiquement modifiés ne sont plus seulement le sujet de la science-fiction. En juillet 2017, le MIT Technology Review a rendu compte des efforts déployés par les chercheurs de Portland (Oregon) pour modifier génétiquement les embryons humains à l’aide de l’outil d’édition génétique CRISPR. Les chercheurs, dirigés par Shoukhrat Mitalipov de l’Université des sciences et de la médecine de l’Oregon, ont édité l’ADN des embryons à une cellule, démontrant ainsi qu’il est possible de corriger efficacement et en toute sécurité les gènes défectueux porteurs de maladies héréditaires.

Pour en savoir plus, lisez cet article. (Anglais)

L’édition de gènes dans un corps humain

Il ne fait aucun doute que CRISPR est l’outil d’édition génétique le plus efficace que nous ayons aujourd’hui. Après de nombreuses expériences qui ont démontré ce que CRISPR pouvait faire, l’outil d’édition de gènes a finalement été appliqué à un patient humain en vie le 13 novembre. Un patient de 44 ans souffrant d’une maladie génétique rare appelée syndrome de Hunter a fait éditer son génome à l’aide d’un traitement CRISPR mis au point par la société de biotechnologie Sangamo Therapeutics.

Vous pouvez lire toute l’histoire ici. (Anglais)

Les cinq nouvelles particules du LHC

Maintenant que nous avons examiné quelques avancées biologiques, passons au domaine de la physique quantique. La science du “petit” continue de grandir grâce au travail des scientifiques qui utilisent le Grand collisionneur de hadrons (LHC). Le 16 mars 2017, le LHC a découvert un nouveau système de cinq particules, le tout en une seule analyse.

Dotée d’une signification statistique écrasante à l’appui, cette découverte exceptionnelle ne peut être considérée comme un hasard. Au lieu de cela, elle offre une nouvelle fenêtre sur notre compréhension des théories quantiques qui régissent à la fois la physique des particules dans notre monde et au-delà.

Vous pouvez lire les nouvelles particules ici. (Anglais)

Assurer l’avenir de la communication quantique

En parlant de théories quantiques, 2017 a été l’hôte de certains des plus grands développements dans les technologies quantiques à ce jour. L’informatique quantique, pour sa part, a connu des avancées significatives. Les percées dans le domaine de la communication quantique sont tout aussi importantes, grâce aux efforts des chercheurs de Chine et d’ailleurs pour construire des réseaux quantiques.

Des démonstrations d’enchevêtrement quantique depuis l’espace jusqu’à l’envoi réussi de messages par cryptographie quantique, les chercheurs ont montré qu’un avenir d’Internet quantique est à l’horizon.

Découvrez ce qu’un monde alimenté par des ordinateurs quantiques serait ici. (Anglais)

SpaceX et l’ère des fusées réutilisables

En ce qui concerne l’avenir des vols spatiaux et de l’exploration spatiale, SpaceX est devenu un nom bien connu. L’entreprise de fusées lancée par Elon Musk en 2002 a renforcé son emprise sur la technologie des fusées et l’espace cette année, marquant un certain nombre de “premières” de leur liste de contrôle du développement.

Le principal d’entre eux est le lancement réussi d’une fusée d’appoint Falcon 9 précédemment utilisée, qui marque la fin d’une ère de missions spatiales coûteuses. Le 30 mars 2017, SpaceX a montré que ses fusées Falcon 9 sont réutilisables et pas seulement de nom. Mais ce n’était que le début. Avec un plan mis à jour pour Mars et une fusée BFR remaniée, SpaceX continue de travailler à rendre toutes les pièces de ses fusées et engins spatiaux complètement réutilisables.

Revenez sur ce moment historique ici. (Anglais)

TRAPPIST-1 et trouver la Terre 2.0

Enfin, l’une des plus grandes découvertes qui pourraient affecter l’avenir de la vie au-delà de la Terre. En février 2017, des scientifiques travaillant à l’Observatoire Sud Européen et à la NASA ont annoncé la découverte de sept exoplanètes terrestres situées dans l’espace habitable d’un système stellaire appelé TRAPPIST-1.

Le système TRAPPIST, situé à environ 39,5 années-lumière du Soleil, abrite une étoile naine rouge ultra-fraîche qui n’est qu’un peu plus grande (quoique beaucoup plus massive) que Jupiter. Les astronomes continuent à débattre du potentiel de ces sept exoplanètes TRAPPIST à accueillir la vie, mais la découverte d’une collection d’exoplanètes peut-être vivables dans un seul système est une découverte prometteuse dans la quête de la vie en dehors de la Terre.

Cliquez ici pour en savoir plus sur la découverte de TRAPPIST-1. (Anglais)

Source : Futurism

 
3 Commentaires

Publié par le 27 décembre 2017 dans général, Insolite, Sciences

 

Étiquettes : , , , , , , , , , ,

L’Inde ne supprimera pas le générateur d’énergie libre Tewari malgré les menaces du Royaume-Uni, des États Unis, et de l’Arabie Saoudite

L’Inde ne supprimera pas le générateur d’énergie libre Tewari malgré les menaces du Royaume-Uni, des États Unis, et de l’Arabie Saoudite
L’Inde estime que son propre programme d’énergie libre, est une question de fierté nationale, et n’a pas peur de risquer de se mettre à dos les pays du pétrodollar, en apportant son soutien au générateur AC sans réaction synchrone (RLG) inventé par son propre citoyen, Paramahamsa Tewari, un ingénieur électricien, et ancien directeur exécutif du Nuclear Power Corporation of India.

Il y a des années, Tewari a aussi démontré les théories à l’intérieur du moteur homopolaire de Bruce de Palma, qui le premier a exposé cet écrivain dans le monde des technologies de l’énergie libre.

De toute évidence, un pays ne peut pas mettre en œuvre son propre programme d’énergie libre, sans tenir compte de toutes les conséquences possibles, y compris une intervention militaire des pays du pétrodollar, par exemple l’Arabie Saoudite, le Royaume-Uni, les États-Unis. Voilà pourquoi l’Inde a aligné son propre programme militaire avec celui de la Russie qui actuellement se tient debout, avec les pays du BRICS, contre la cabale Nazioniste qui impose toutes sortes de sanctions pour le détruire.
L’alliance BRICS dans le passé, a promis de libérer toutes les technologies supprimées, par exemple, l’énergie libre, pour notre utilisation responsable. On dirait qu’ils respectent leur parole.

DERNIÈRE NOUVELLE : UN GÉNÉRATEUR «OVER-UNITÉ» SANS RÉACTION INVENTÉ EN INDE

« Une ère de nombreuses générations passe; nos machines seront alimentées par une puissance disponible à tous les points de l’univers « . – Nikola Tesla

( Évolution Collective) Un générateur synchrone AC sans réaction (RLG), a été inventé par Paramahamsa Tewari, ingénieur électricien et ancien directeur exécutif de Nuclear Power Corporation of India. Son expérience comprend la gestion de projets d’ingéniérie, pour la construction de centrales nucléaires.

L’efficacité des modèles qu’il a construits, et qui ont également été construits et testés de façon indépendante, est aussi élevée que 250%.

En novembre 2014, j’ai fait une des nombreuses visites au laboratoire de Paramahamsa Tewari. Je l’avais vu à la base de la conception RLG en septembre 2010. M. Tewari m’a montré un conducteur rigide d’environ un pied de long, qui pouvait tourner au centre et était relié à chaque extrémité avec un fil de petit calibre.
Un circuit magnétique a été placé sous le conducteur. Quand on a laissé circuler un courant à travers du conducteur, il a tourné, en raison d’une pression induit sur le conducteur, en fonction de la Règle et la théorie standard de Flamands, vérifiée par des expériences à l’aube de l’ère électrique.

Avec un simple réarrangement du circuit magnétique, le même courant ne produit pas de rotation – la pression (torque) a été annulée. Plus tard, j’ai dupliqué la configuration et l’expérience sur mon établi. C’est ingénieux et cela a conduit à cette percée, l’invention d’un générateur sans réaction, avec une efficacité beaucoup plus grande.

Cette expérience a conduit à la conception et aux essais d’appareils qui ont des rendements bien supérieurs à toutes conceptions précédentes. La conception utilise les mêmes types de matériaux utilisés dans les générateurs de courant, mais le circuit magnétique dans la machine, est configuré pour annuler le retour de pression (torque), tout en induisant du courant et de la production d’énergie.

Cela pourrait être comparé à la réorganisation des matériaux par les frères Wright, pour construire une surface de vol, qui a abouti au vol humain à une époque, où beaucoup avaient dit que c’était impossible, y compris les scientifiques. En effet, les physiciens qui se cramponnent à un modèle désuet des propriétés et de la structure de l’espace, ont déclaré que, ce que Tewari a fait était impossible.

Pendant l’essai en novembre, j’ai été témoin deux essais d’efficacité sur le nouveau modèle dans le laboratoire de Tewari. Le deuxième essai était meilleur que le premier, de plusieurs pourcentages, et a produit 6,6 KVA avec une efficacité de 238%. Un deuxième ensemble de bobines de démarrage n’était pas encore connecté, mais il est prévu que cela augmenterait la production à 300%.

Ceci est un générateur AC synchrone triphasé, 248 volts Hz, fonctionnant à 50 Hz. De vrais «meters» de grande précision, RMS sur l’entrée et la sortie, mesuraient les KW, KVA, et facteur de puissance, ont confirmé les lectures des «meters» que nous avions fournis pour les essais que j’avais observés en avril 2014.
Nous avons pu visiter un site de l’usine de 130 acres, de l’une des meilleures entreprises de fabrication de machines électriques de l’Inde. Dans ce site, l’entreprise fabrique des machines électriques rotatives, y compris les générateurs. Lorsque l’ingénieur électricien en chef a d’abord vu les dessins et la conception du RLG, il a su immédiatement ce que cela signifiait pour l’efficacité!
En raison de leur confiance dans la conception et les résultats des tests sur le plus petit modèle, la société a assemblé une machine auto-excitée conçue pour produire 20 KVA.

31-1024x434

Quand nous sommes arrivés à l’usine, un vice-président de la société, le directeur général de l’usine, et l’ingénieur en chef nous ont accueillis.

Nous avons ensuite inspecté la nouvelle machine, et rencontré l’équipe de conception d’ingénierie affectée à ce projet. Ce sont des ingénieurs électriques et mécaniques, qui conçoivent et construisent des générateurs conventionnels avec une sortie aussi élevée que 500 KVA.

Ils sont très enthousiastes et comprennent que c’est une percée. Une seconde machine évaluée à 25 KVA, est actuellement en construction dans cette société en Inde.

Je crois, comme le font les ingénieurs en Inde, que ceci est la plus grande percée, dans la conception de machines électriques rotatives, depuis l’invention du moteur électrique de Faraday en 1832.

L’élimination du renversement de pression (back torque) permet à toute l’énergie générée de passer à travers la machine. La puissance de sortie est déterminée par la force des aimants d’excitation, et la réactance synchrone (résistance à 50/60 Hz) des enroulements de démarrage. Les modèles actuels peuvent être montés en parallèle pour une production plus élevée.
Chaque machine peut produire au moins 2,38 fois l’entrée et peut être configurée dans un mode de fonctionnement autonome. Étant donné que la concentration a été sur l’amélioration de l’efficacité et la conception, la machine n’a pas encore été configurée de cette manière.

Lors d’une visite, en décembre de l’année 2012, pour assister à des essais, nous étions invités par le directeur de l’ingénierie d’une grande entreprise de service public, et nous avons visité une installation de production, qui selon le directeur, était prête pour les systèmes de RLG, dès qu’ils seront mis à l’échelle de la taille requise.

En mars 2015, nous sommes retournés en Inde pour des discussions de licence. Les plans actuels pour les modèles d’introduction, de 10 KVA et 25 KVA, qui seront commercialisés.

Une deuxième société est impliquée dans les discussions sur la fabrication, et la Power Corporation Karnataka, qui fournit Bangalore, étudie l’utilisation de 200 KVA dans une application de ferme éolienne, tel que décrit dans la 7e édition d’avril de l’Asia Times.

Le numéro de novembre 2013 du magazine Atlantic, contient un article sur les 50 Plus Grandes Percées Depuis La Roue. Le RLG est plus, que juste un produit ou une innovation technique. C’est un changement fondamental dans la façon dont l’énergie peut être générée.

Il surmonte les inefficacités inhérentes des génératrices à courant alternatif. Des brevets ont été déposés, et le RLG est prêt à être licencé pour des entreprises, qui fabriquent des machines électriques rotatives. En fait, des discussions avec des entreprises sont en cours sur trois continents.
Nous croyons que le RLG est une découverte fondamentale, et non une innovation. La première découverte fondamentale de l’humanité a été la maîtrise et le contrôle du feu. La deuxième était la roue. La troisième a été la maîtrise et le contrôle de l’électricité. La quatrième a été la maîtrise et le contrôle de l’atome.

Le RLG peut faire tourner les roues sans l’utilisation du feu (combustibles fossiles) ou de l’atome (des centrales nucléaires). Il est une innovation du 21e siècle. Les quatre premières de ces innovations, impliquaient une compréhension des éléments matériels. Le RLG est basé sur une compréhension des propriétés non-matérielles de l’espace.

La recherche de Paramahamsa Tewari sur la nature de la réalité, l’a conduit de l’étude des anciens Védas de l’Inde, à la formulation de la théorie Vortex de l’Espace. C’est une nouvelle théorie unifiant la relation entre l’espace, la masse, l’inertie, la lumière, et la gravité.
À partir des principes décrits dans les textes védiques, Tewari a pu délimiter un modèle mathématique qui explique les mots de Tesla quand il a dit:

Toute matière perceptible provient d’une substance primaire, ou ténuité au delà de la conception, et remplissant tout l’espace, l’Akasha ou éther luminescent, lequel est sollicité par le Prana donnant toutes vies, ou force créatrice, qui crée l’existence, de toutes choses et phénomènes, dans des cycles ne se terminant jamais..” – Nikola Tesla,“Man’s Greatest Achievement,” 1907 (La Plus Grande Réussite De L’Homme)

« – Nikola Tesla, »

Dans les mots de Tewari:
“La matière universelle est créée à partir du prana, puisque le prana est de l’aakaash en mouvement, et l’aakaash est le substrat superfluide primordial de l’univers.”

Le concept, que l’efficacité ne peut être supérieure à 100%, est dû à une compréhension incomplète des propriétés de l’espace. La deuxième loi de la thermodynamique doit être modifiée, pour tenir compte du fait que l’espace n’est pas vide, comme cela a été enseigné depuis les 150 dernières années.

Le RLG fonctionne sur ce qui a été appelé « over-unité. » Beaucoup d’ingénieurs électriques expérimentés, engagés dans la fabrication de génératrices à courant alternatif, ont testé indépendamment le RLG, et ils ont confirmé les cotes d’efficacité que j’ai observées. Il est temps pour les physiciens de s’enlever du chemin, et d’aller modifier leurs théories, tandis que les ingénieurs s’engagent dans la conception et la production.

Les modèles théoriques et mathématiques peuvent être trouvés à:

TEWARI.ORG

Couverture Médiatique Récente:
Article du Asia Times
Source : stopmensonges.com

 
2 Commentaires

Publié par le 26 décembre 2017 dans Climat - Environnement, général, Sciences

 

Étiquettes : , , , , , , , ,

Des ordinateurs portables avec une autonomie d’une semaine débarquent !

Nous sommes en plein dans une révolution dans le domaine des ordinateurs portables , qui vont devenir de plus en plus puissants, et autonomes … Un nouveau palier va être franchi pas plus tard que … l’année prochaine, avec une nouvelle génération de PC qui va débarquer sur le marché !  Z 

Des ordinateurs portatifs minces, dotés d’une autonomie de plus de 20 heures et d’une connexion Internet continue : voilà la promesse des nouveaux ordinateurs portatifs imaginés par Microsoft et Qualcomm, un fabricant de composants électroniques. Le concept n’est pas inédit, mais plusieurs améliorations technologiques récentes pourraient enfin lui permettre de réussir.

Les Always Connected PC — qu’on pourrait traduire par « ordinateurs toujours connectés », en attendant l’arrivée d’une appellation officielle en français — ont de quoi séduire. Ces appareils, dont les deux premiers modèles de HP et ASUS ont été dévoilés cette semaine, ne seront pas les plus puissants sur le marché, mais ils offriront en revanche plusieurs caractéristiques recherchées par les travailleurs modernes.

Microsoft promet notamment que les ordinateurs s’allumeront instantanément, comme un téléphone, qu’ils seront dotés d’une connexion Internet sans fil rapide et d’une autonomie pouvant aller jusqu’à une semaine, selon l’utilisation qu’on en fait.

Des idées similaires ont déjà été proposées par le passé (les Smartbook de Qualcomm et les ordinateurs Windows RT de Microsoft), mais elles n’ont jamais vraiment décollé. La technologie n’était tout simplement pas au rendez-vous. Tout indique que cette fois pourrait être la bonne.

Un processeur de téléphone intelligent

Au cœur des HP ENVY x2 et ASUS NovaGO, les deux premiers Always Connected PC, se trouve un processeur Snapdragon 835 de Qualcomm. Ce composant — le cerveau de l’ordinateur en quelque sorte — est le même qui équipe la plupart des téléphones Android haut de gamme lancés en 2017.

La puissance des processeurs de téléphone s’améliore d’une façon presque exponentielle depuis quelques années, au point que ceux-ci sont désormais assez rapides pour les applications lourdes conçues pour des ordinateurs. Mais plus important encore, ces processeurs ont été optimisés pour fonctionner le plus longtemps possible avec une petite batterie de téléphone.

Dans un ordinateur, qui possède un espace pour une batterie plus imposante, imaginez le gain d’efficacité : ces processeurs devraient permettre une utilisation de 22 heures consécutives. Si on en fait un usage moyen, Microsoft estime que l’autonomie des Always Connected PC pourra atteindre des jours, et même une semaine.

Un système d’exploitation complet

L’autre partie importante de l’équation est le système d’exploitation Windows 10, qui a été entièrement revu par Microsoft pour être compatible avec ces processeurs de téléphones intelligents.

Contrairement au système Windows RT d’il y a quelques années, les applications traditionnelles Windows — celles qui équipent généralement les ordinateurs des entreprises — pourront aussi fonctionner avec ces processeurs.

Bref, l’autonomie des Always Connected PC ne sera pas atteinte en forçant des compromis importants de la part des utilisateurs.

Une connexion Internet efficace

Le dernier morceau du casse-tête, selon Microsoft et Qualcomm, est l’ajout d’une puce LTE dans tous les ordinateurs de ce genre. Comme avec un téléphone intelligent, les PC auront un accès constant à Internet, avec une technologie rapide. Il y a quelques années seulement, ces connexions cellulaires étaient beaucoup plus lentes et consommaient plus d’énergie.

Pour profiter d’une connexion LTE, les utilisateurs devront toutefois payer un forfait de données à leur fournisseur Internet. Considérant l’omniprésence du Wi-Fi et la possibilité de créer une borne d’accès sans fil avec son téléphone intelligent, ce dernier aspect des Always Connected PC est probablement moins pertinent pour les utilisateurs que pour Qualcomm, qui commence à affronter une concurrence de plus en plus féroce dans le secteur des téléphones intelligents avec sa technologie.

Avec ou sans connexion Internet, la promesse d’une longue autonomie pourrait être suffisante pour assurer le succès de ce nouveau genre d’ordinateur. À condition bien sûr que les caractéristiques permettent de faire fonctionner les applications populaires, comme Chrome et Office, de façon fluide, ce qui devrait être le cas.

Les premiers Always Connected PC seront lancés au printemps 2018, pour un prix qui n’a pas encore été annoncé.

source

 
1 commentaire

Publié par le 20 décembre 2017 dans général, Sciences

 

Étiquettes : , , , , ,

Climat : la géo-ingénierie arrive dans le débat

La géoingénierie, plan B controversé pour sauver le climat/AFP

L’info date d’il y a 2 mois environ, mais est très pertinente . Puisqu’on vous dit que la géo-ingénierie ça n’existe pas !!! (c’est ce qu’on disait encore il y a quelques mois) La preuve , c’est devenu le sujet d’un débat publique ! Mais Dormez tranquille !! Z 

Scientifiques et stratèges du climat sont réunis cette semaine à Berlin pour débattre de la façon dont les technologies de manipulation du climat (ou géo-ingénierie) pourraient en partie compenser notre incapacité à réduire suffisamment les gaz à effet de serre responsables du réchauffement.

Fin 2015, 195 pays se sont engagés à contenir la hausse de la température mondiale « bien en deçà de 2°C » voire 1,5°C par rapport au niveau d’avant la Révolution industrielle. Mais l’accord de Paris ne précise pas comment et quand ces objectifs doivent être atteints.

Or la température a déjà augmenté d’un degré, entraînant tempêtes tropicales et vagues de chaleurs meurtrières, incendies… Des conséquences dramatiques qui indiquent que le temps ne joue pas en notre faveur et que l’éventail des solutions se rétrécit.

Michael Taylor, spécialiste de l’atmosphère à la West Indies University, a rappelé cette semaine à Berlin l’urgence d’agir après les deux cyclones de catégorie 5 qui ont récemment dévasté les Caraïbes. « Le climat de la région va tellement changer qu’il ne va pas seulement être inhabituel, il sera sans précédent », a-t-il déclaré.

« Il est devenu très clair que parvenir aux 2°C, et plus encore à 1,5°, dépendra beaucoup de notre capacité à extraire de grandes quantités de CO2 de l’atmosphère », a dit Naomi Vaughan, climatologue à l’Université d’East Anglia (Grande-Bretagne), devant les scientifiques réunis pour la 2e Conférence d’ingénierie du climat.

De fait, 90% des projections climatiques du groupe d’experts du Giec donnent un rôle clé à ces « émissions négatives » (retirer du CO2 de l’atmosphère) si le monde veut rester sous les 2°C.

Parmi les projets de capture du CO2 figurent l’intensification de l’érosion des roches (phénomène qui absorbe le CO2), la production à grande échelle de charbon de bois à partir de déchets organiques, la récupération du CO2 émis par la combustion de biocarburant ou encore l’aspiration du dioxyde de carbone contenu dans l’atmosphère.

La plantation massive d’arbres – qui stockent le CO2 – est elle aussi considérée comme faisant partie des méthodes d’élimination du dioxyde de carbone.

– Une pente dangereuse? –

L’autre approche, beaucoup plus controversée, le contrôle du rayonnement solaire, consiste à renvoyer assez de rayons solaires dans l’espace pour abaisser la température mondiale d’un degré ou deux.

La méthode consisterait à injecter dans la stratosphère des milliards de particules réfléchissantes, ou à accroître par des procédés chimiques la brillance de nuages.

« Il sera très difficile d’atteindre l’objectif de l’accord de Paris de rester sous les 2°C sans avoir recours à au moins une, si ce n’est deux, de ces formes de géo-ingénierie », estime Mark Lawrence, directeur de l’Institute for Advanced Sustainability Studies basé à Potsdam.

Mais pour certains scientifiques, la géo-ingénierie est une pente dangereuse.

« Elle détourne l’attention de la nécessité de réduire les émissions » de gaz à effet de serre, estime Jean-Pascal van Ypersele, professeur à l’Université catholique de Louvain et ancien vice-président du Giec. « Retirer le CO2 donne l’illusion que nous pouvons continuer à utiliser les énergies fossiles indéfiniment », a-t-il déclaré à l’AFP.

D’autres experts s’inquiètent surtout d’une manipulation du rayonnement solaire.

« C’est la première fois depuis le développement des armes nucléaires que nous avons un ensemble de technologies porteuses de conséquences sur la Terre ainsi que sur la société humaine, à une échelle planétaire », souligne Arunabha Ghosh, président du Conseil de l’énergie, de l’environnement et de l’eau à New Delhi.

Le contrôle du rayonnement solaire pourrait notamment perturber les précipitations, et donc l’agriculture, relèvent ces critiques.

Les effets secondaires – réels ou supposés – de cette technique risquent aussi de provoquer des conflits, ajoute Myles Allen, qui dirige le groupe de recherche sur le climat de l’Université d’Oxford. Les pays victimes d’une sécheresse, explique-t-il, pourraient par exemple accuser quiconque utilise le contrôle du rayonnement solaire d’en être responsable.

Ces technologies pouvant être développées unilatéralement par un pays ou une entreprise, il s’agira aussi de savoir qui déterminera les règles régissant leur usage.

« Nous devons imaginer des accords gouvernementaux qui n’ont jamais été imaginés auparavant », relève M. Ghosh, soulignant cependant qu’entretemps, la recherche doit se poursuivre.

 
1 commentaire

Publié par le 19 décembre 2017 dans Climat - Environnement, général, Sciences

 

Étiquettes : , , , ,

 
%d blogueurs aiment cette page :