Toutes les nouvelles

2012

Ce livre est le fruit du travail de 8 membres du groupement de service du CNRS EcoInfo (http://www.ecoinfo.cnrs.fr).

L'ouvrage aborde  les impacts écologiques directs des TIC (épuisement des ressources, pollutions, transformation des écosystèmes, impacts sur le monde du vivant) et propose une analyse critique des outils qui permettent leur évaluation. Il présente les résultats de l'application de ces outils à l'étude des impacts écologiques des TIC ainsi qu'une mise en perspective critique des facteurs qui permettent de les expliquer.

 

Image de Les impacts écologiques des Technologies de l’Information et de la Communication
Auteur: EcoInfo, Cédric Gossart, Philippe Balin, Amélie Bohas, Carole Charbuiliet, Eric Drezet, Jean-Daniel Dubois, Marianne Parry
Éditeur: EDP SCIENCES (2012)
Reliure: Broché, 224 pages
Communiqué de presse : Nominés 2012 du prix Jean Jerphagon
Prix Jerphagnon

Maxime Dahan (CNRS), Sébastien Février (Université de Limoges), Emmanuel Fort (Institut Langevin, ESPCI ParisTech), Nicolas Treps (Université Pierre et Marie Curie) sont les 4 nominés 2012 du Prix Jean Jerphagnon

Paris, le 15 novembre 2012

Le comité d’organisation du Prix Jean Jerphagnon, présidé par Jean-Luc Beylat, Président Systematic Paris-Region et Président d'Alcatel-Lucent Bell Labs France, annonce le nom des quatre nominés de l’édition 2012. Le lauréat 2012 recevra un chèque de 10 000€ et sera assisté sous forme de conseils dans la mise en œuvre de son projet par le comité d’organisation du Prix Jean Jerphagnon. Chacun des autres candidats nominés recevra un chèque de 1000€. 

3EI

Ce DVD regroupe tous les articles des numéros 0 à 59, de mai 1994 à décembre 2009 au format pdf.

Il peut être commandé en remplissant le bulletin de commande .
Les thèmes abordés sont consultables sur le site de la revue.

L’appel à conférences est en cours et le CFM recevra jusqu’au 20 décembre les propositions de sujet. Le programme du Congrès sera également complété par les thématiques suivantes :

  • §  La maîtrise des processus de mesure d’analyse et d’essais : incertitude, traçabilité, vérification, formation, certification, modélisation et méthodes numériques, fonction métrologie, …
  • §  Les domaines réglementaires, la métrologie légale et les reconnaissances internationales
  • §  La métrologie dans les nouveaux secteurs : biotechnologie, environnement, mesure sensorielle, capteurs et réseaux intelligents …

Toutes les grandeurs physiques et chimiques sont concernées.

Tous les secteurs d’activité industrielle sont concernés.

Les conférences du Congrès donneront lieu à des publications dans des revues à Comité de lecture. La présence des industriels dans l’organisation du Congrès est forte pour valider l’intérêt des sujets traités : EdF, GSK Biologicals, Peugeot Citroën Automobiles, Hexagon Metrology et Trescal ainsi que des centres techniques experts apportent leur contribution.

APAVE – A+ Métrologie et ZEISS ont confirmé leur soutien à la manifestation en tant que sponsor de premier rang et dès le démarrage de la promotion.

Seule manifestation de cette envergure en Europe, le Congrès est organisé par le Collège Français de Métrologie en partenariat avec Euramet, le BIPM, l’OIML, le NCSLi et le NPL pour l’ouverture internationale et les utilisateurs et centres de compétences techniques suivants EDF, GSK Biologicals, Peugeot Citroën Automobiles, Acac, BEA Métrologie, Cetiat, IMQ, Laboratoire Belge de Métrologie, LNE, Hexagon Metrology, Trescal et l’INSA de Lyon. Le Congrès est également soutenu par le Ministère chargé de l’Industrie en France.

Information :

04.67.06.20.36  -  info@cfmetrologie.com  -  www.metrologie2013.com

 

Parution d'ouvrage : LTE et les réseaux 4G

En cours de déploiement dans de nombreux pays, la technologie LTE (Long Term Evolution), aussi connue sous le nom de 4G, représente une évolution majeure dans le domaine des réseaux mobiles. Le LTE constitue le prolongement du GSM (2G) et de l'UMTS/HSPA (3G/3G+), avec pour objectifs :

  • d'accroître les débits offerts aux utilisateurs ;
  • d'augmenter la capacité des réseaux ; 
  • d'améliorer l'interactivité grâce à une réduction de la latence.

Cet ouvrage propose une synthèse accessible et commentée des spécifications techniques du LIE. Il présente notamment les motivations de cette nouvelle technologie, l'architecture LTE/EPC, les principes techniques et les mécanismes normalisés de l'interface radio, les procédures d'appels et de gestion de la mobilité. Les interactions avec le réseau coeur EPC (Evolved Racket Core) sont également décrites. Des développements sont enfin consacrés aux innovations propres au LIE, telles que les fonctionnalités d'auto-organisation ou encore le support natif des cellules femto.

Image de LTE et les réseaux 4G
Auteur: Eric Hardouin, Yannick Bouguen, François-Xavier Wolff
Éditeur: Eyrolles (2012)
Reliure: Broché, 548 pages
Communiqué de presse : Rappel : Prix Jean JERPHAGNON 2012
Prix Jerphagnon

Appel a candidature

PRIX JEAN JERPHAGNON 2012

L’excellence optique-photonique au cœur de l’entreprenariat

Date limite de soumission le 21 septembre 2012

 

Le  PRIX  JEAN  JERPHAGNON  est  destiné  à  promouvoir  la  recherche,  le  développement et  l’innovation  technologique  en  optique  et  photonique,  ainsi  que  leur  diffusion  dans  tout domaine  d’application.  En  concertation  avec  la  famille  de  Jean  Jerphagnon,  treize  acteurs déterminants  du  monde  de  l’innovation  se  sont  associés  pour  créer  et  faire  vivre  ce  prix, formant un consortium mixte de nature académique, industrielle et économique : Académie des Technologies, Alcatel-Lucent, Centre National de la Recherche Scientifique, Fondation Télécom, France-Telecom, Images et Réseaux, Opticsvalley, Route des Lasers, Systematic Paris-Region,  Thales,  Société  de  l’Electricité  et  de  l’Electronique,  Société  Française de  Physique  et  Société  Française  d’Optique  (ces  trois  dernières  sociétés  étant  fédérées au sein de la Fédération Française de Sociétés Scientifiques). Ce prix ne récompense pas une  carrière  mais  un  projet  véritablement  innovant,  à  fort  potentiel  industriel  ou  à  grande valeur  scientifique,  et  marquant  une  étape  dans  la  carrière  du  candidat.  Il  a  été  attribué en  2008  pour  la  première  fois,  la  lauréate  étant  Nathalie  Picqué,  les  lauréats  2009,  2010 et 2011 étant respectivement Philippe Bouyer, Laurent Cognet et Frédéric Druon.

Les  candidats  sont  de  jeunes  entrepreneurs,  ingénieurs  ou  chercheurs  âgés  d’au  plus 40  ans  en  2012,  ayant  déjà  acquis  une  reconnaissance  incontestable  de  leurs  pairs et souhaitant donner une nouvelle dimension à leur travail professionnel. Les projets soumis peuvent  concerner  toute  démarche  de  recherche  et  (ou)  entrepreneuriale  à  condition de comporter des éléments d'optique ou de photonique.

Ils pourront par exemple consister en :  

  • la création d’une entreprise basée sur les innovations du candidat
  • la création d’une nouvelle ligne de produit dans une entreprise existante
  • un transfert des résultats de recherche du candidat dans un autre domaine scientifique ou applicatif
  • la création d'une nouvelle équipe de recherche sur le sujet du projet, etc.

Le   jury   regroupe   des   acteurs   connus   de   l’optique-photonique   et   des   personnalités marquantes  du  monde  de  l’innovation,  tant  scientifique  qu’entrepreneurial.  En  2012,  il  est présidé par Thierry Georges, entrepreneur et PDG d’Oxxius, et co-présidé par Alain Aspect, Directeur  de  Recherche  au  CNRS  (Laboratoire  Charles  Fabry  de  l’Institut  d’Optique Graduate School).
Le lauréat reçoit un chèque de 10 000 € et est assisté, sous forme de conseils, dans la mise en   œuvre   de   son   projet   par   le   Comité   d’Organisation   du   Prix   Jean   Jerphagnon.
Chacun des nominés reçoit un chèque de 1 000 €.

 

Pour faire acte de candidature 

Remplir  les  formulaires  déposés  sur  le  site  www.prixjeanjerphagnon.org  et  les  renvoyer par voie électronique uniquement à l’adresse suivante : candidature@prixjeanjerphagnon.org

Cette année  la cérémonie des Grands Prix SEE a eu lieu le lundi 3 décembre 2012, à partir de 17h00 jusqu' à 20 heures, au 17 rue de l'Amiral Hamelin, 75016 Paris (métro Boissière ou Iéna).

A cette occasion, les Prix et Médailles de grand renom, ainsi que les diplômes de Distinctions Emérite et Senior de la SEE ont été remis.

Les lauréats des Prix ont ainsi eu l'occasion d'exposer leurs travaux à l'audience.

La liste des lauréats 2012 et leurs exposés présentés peuvent être consultés sur cette page ainsi que sur les pages des Prix.

Manière de mettre à l'honneur les exellentes relations entre les deux associations, l'IEEE a remis la distinction IEEE Region 8 Volunteer Award a Michel Henri CARPENTIER,

ActuInfo

L'Université d'Harvard s'était associée le 2 mai dernier au MIT dans edX, une plateforme technologique de cours gratuits en ligne, basée sur MITx conçue par le MIT pour offrir ses cours gratuitement en ligne; Harvard joint donc ses cours en ligne de Harvardx. Et le 24 juillet, UC Berkeley s'est jointe à edX.

Sept cours sont annoncés et débuteront en septembre-octobre :

- Introduction to Solid State Chemistry, MIT
- Introduction to Computer Science I, Harvard
- Software as a Service, Berkeley
- Circuits and Electronics, MIT
- Health in Numbers: Quantitative Methods in Public Health, Harvard
- Artificial Intelligence, Berkeley
- Introduction to Computer Science and Programming, MIT
 

Les versions en ligne comprennent:
cours en video,
essais en ligne,
réponse en temps réel,
questions et réponses
et essais labo collaboratifs en ligne.
Même s'ils ne remplaceront pas les cours traditionnels, ils permettront de construire une communauté mondiale d'étudiants et de promouvoir l'éducation pour tous.

EdX fournira sa plateforme comme un logiciel en accès libre, utilisable par d'autres universités ou organisations souhaitant les héberger. Elles pourront ainsi à volonté en augmenter le contenu.

Ce projet n'est pas unique. Sebastian Thrun, professeur au département "Computer Science" de l'université de Stanford jusqu'en avril 2011 avait permis de suivre en ligne le cours "Introduction à l'intelligence artificielle",  proposé aux étudiants de Stanford. Il a fondé depuis la start-up Udacity: onze cours d'informatique, mathématiques et physique  y sont proposés gratuitement sur Internet - alors qu'une année d'enseignement à Stanford coûte plus de 40000 dollars.

Coursera est une plateforme qui propose depuis mars dernier des cours dans divers domaines scientifiques (mathématiques, informatique, biologie, ...), ainsi qu'en lettres et sciences sociales. Le projet,  qui a réussi à lever pas moins de 16 millions de dollars au mois d'avril, a pour partenaires - Stanford, Princeton, University of Michigan, University of Pennsylvania - qui y proposent leurs cours en ligne.

Sans oublier bien sur en France le Portail des Universités numériques, organisé autour de sept thèmes:

Économie et gestion : AUNEGE
Santé et sport : UNF3S
Sciences fondamentales : UNISCIEL
Sciences de l'ingénieur et technologie : UNIT
Sciences juridique et politiques : UNJF
Sciences humaines et sociales, langues et arts : UOH
Environnement et développement durable : UVED

.

ActuInfo

Les convertisseurs analogique-numérique échantillonnent les signaux en respectant le théorème de Shannon-Nyquist, qui stipule que la fréquence d'échantillonnage d'un signal doit être égale ou supérieure au double de la fréquence maximale contenue dans ce signal. Ainsi, plus la bande passante du signal est large, plus le taux d'échantillonnage et la bande occupée par la transmission doivent être élevés pour ne pas perdre d'information. Une équipe du Technion, Haïfa, a récemment proposé une méthode appelée "Xampling", ou échantillonnage sous-Nyquist, qui offre une nouvelle approche pour l'échantillonnage de signaux à large bande en effectuant un pré-traitement de compression analogique avant l'échantillonnage. L'idée est de modéliser le signal comme une union de sous-espaces spécifiques à un domaine fréquentiel afin de réduire de manière conséquente le taux d'échantillonnage et d'échantillonner uniquement l'information qui est requise.
Ces recherches ont fait l'objet d'une publication dans IEEE Transactions on Signal Processing, oct 2011, et IEEE Signal Processing Magazine, nov 2011

Le Xampling comporte deux blocs: une compression analogique utilisant des dispositifs du commerce, puis l'application d'un algorithme nonlinéaire détectant ces sous-espaces avant échantillonage.

 

ActuInfo

SoundWave—une collaboration entre Microsoft Research et l'Université de Washington—utilise des ultrasons pour détecter les mouvements en se servant des équipements existants sur les appareils mobiles, grâce à l'effet Doppler:  une présentation à l'ACM (Association for Computing Machinery) SIGCHI (Special Interest Group Computer-Human Interaction) CHI2012 Conference on Human Factors in Computing Systems, Austin,Texas, 5-10 mai.

En détectant, à l'aide des microphones du système, le déplacement Doppler d'ultrasons émis dans la bande 18-22 kHz, SoundWave détecte les mouvements en avant et autour d'un calculateur, et en calculant vitesse, direction et amplitude des gestes, arrive à les reconnaitre. On peut par exemple déplacer une page web de haut en bas par le mouvement d'une main. Et on peut aussi écouter de la musique simultanément.

Des techniques visuelles sont à ce jour employées pour interagir avec un ordinateur en se servant d'une webcam. Ces dispositifs sont sensibles aux conditions d'éclairage, et demandent une puissance de calcul importante. Le Kinect de la Microsoft Xbox est un autre exemple, difficile à miniaturiser. SoundWave est une voie prometteuse, mais a encore des limites, comme la détection des ultrasons par les animaux de compagnie, ou certains filtres d'ultrasons existant sur les équipements, et demande des travaux supplémentaires.

  • Paper Submission   June 18, 2012
  • Notification of Acceptance   July 31, 2012
  • Final Paper Due  September 15, 2012
ActuInfo

Les moyens de calcul ne sont pas seulement devenus moins coûteux, ils deviennent aussi moins gourmands en énergie, accompagnant  les tendances des processeurs, et la loi de Moore.

Les performances des calculateurs suivent celles des processeurs, et la loi de Moore, doublant tous les 18 mois depuis les années 1970. La conséquence est évidemment que le rendement électrique des calculs (le nombre d'opérations réalisées avec 1 kilowatt-heure) suit la même tendance.

Pendant combien de temps encore cela peut-il durer? En 1985, le physicien Richard Feynman a calculé que le rendement énergétique des calculateurs pourrait croitre d'un facteur 1011, et les comparaisons avec les valeurs calculées sur la courbe ci-contre (crédit Jonathan Koomey), calculée en 2009, et actualisée en 2012, montrent une progression d'un facteur environ 105 depuis cette  date. Il resterait donc encore une réserve potentielle de progression importante.
L'accroissement à long terme du rendement énergétique des calculs et des technologies reliées, devrait profondément modifier les modes de recueil et d'analyse des données. En particulier rendre possibles l'Internet des choses, des modes de contrôle industriel complexes, les modélisations à grande échelle.
Si ce taux de croissance continue, le rendement énergétique devrait croitre d'un facteur 100 dans les 10 ans à venir. Un vaste champ est donc ouvert pour de nouvelles applications et de nouveaux produits. On peut aussi se poser la question: besoin d'imagination, sur quelles innovations faudra-t-il compter pour y arriver?

Mais le système n'est qu'une partie de la solution, l'autre étant la manière dont sont traitées les données: le logiciel est aussi une source d'économie d'énergie. On pouvait s'en douter, mais c'est maintenant quantifié. Un article de la revue IEEE Micro (mars 2012), présente une série de mesures reliant logiciel et consommation d'énergie.
Les efforts sont donc à faire dans le domaine des algorithmes autant que dans celui des systèmes.

 

ActuInfo

 STANWs Supramolecular TriArylamine NanoWires - Couches minces de nanofils supramoléculaires de triarylamines - ayant des performances métalliques pour l’électronique organique, un projet de l'ANR Agence Nationale de la Recherche

Ces nanofils conduisent l’électricité presqu’aussi bien que s’ils étaient en cuivre et s’assemblent d’eux-mêmes, plus facilement que des nanotubes de carbone. Ces résultats viennent d'être publiés dans la revue Nature Chemistry 22 avril 2012, par une équipe du CNRS, Institut Charles Sadron et Institut de Physique et de Chimie de Strasbourg, sous l'impulsion de Nicolas Giuseppone.
C'est une approche "Bottom up" - du bas vers le haut - explorée depuis 2009 à l'Institut Charles Sadron de Strasbourg, avec l'autoassemblage de molécules de triarylamines sous l'action de la lumière et de champs électriques.

Ce composé est connu depuis les années 1960, selon Nicolas Giuseppone. Il est utilisé pour la photocopie. La molécule a la propriété de réagir à la lumière en émettant un électron. Au départ, il s’agissait d’étudier des opportunités en optoélectronique. Partant de l’idée de modifier cette triarylamine pour que les molécules s’empilent les unes sur les autres, de manière à conduire les électrons à grande distance, avec une modification plus simple que prévu, elles se sont autoassemblées plus vite et mieux que prévu.
Cet empilement, qui se déclenche à la lumière, est une forme particulière de polymérisation, dite supramoléculaire, car les molécules ne s’accrochent pas entre elles par des liaisons covalentes (les liaisons chimiques classiques entre atomes d'une molécule), mais par des liaisons faibles, entre noyaux aromatiques, liaisons hydrogène et liaisons de Van der Waals.
Elles possèdent une bonne conductivité > 5x103 S m-1 et  une faible résistance d'interface < 2x10-4 Ohm m

 
ActuInfo

Les transistors 3-D de la nouvelle génération de puces d'Intel continuent la tendance des 50 dernières années, ils sont toujours plus rapides et plus denses.

La loi de Moore fut proposée en 1965, lorsque Moore remarqua que le nombre de transistors sur une puce doublait chaque année. Corrigée par Moore en 1975: pour un doublement tous les deux ans, elle est toujours valide, et le lancement en début avril 2012 de la nouvelle génération de transistors 3D Ivy Bridge par Intel, est dans cette ligne.
La puce a une définition Lc de 22 nanomètres (32 nanomètres pour la génération précédente). Baptisée Ivy Bridge, elle a une vitesse de calcul accrue jusqu'à 37%, et une consommation divisée par 2.
Le transistor 3-D Tri-Gate Core i7 d'Intel a trois grilles enroulées autour d'un canal silicium de structure 3-D permettant de combiner performances et efficacité énergétique.
Cette structure permet de densifier le nombre de transistors sur les puces en les gravant en relief. Ainsi, dans cette gamme, le i7-3920XM Extrem Edition porté à 3,5 MHz, comporte 1,4 milliard de transistors sur une surface de 160 mm², contre 1,16 milliard de transistors pour 214 mm² pour le Sandy Bridge, son prédécesseur. Le socket qui accueille le processeur sur la carte mère reste identique. L'architecture de la puce comprend quatre cœurs (Core), une mémoire cache L3 (de niveau 3), disponible pour tous les quatre (Shared L3 Cache),  un processeur graphique 3D  et un contrôleur de mémoire.
Pour économiser l’énergie, la puce adapte sa vitesse selon les besoins, quitte à ne fonctionner que sur l’un des cœurs lorsque les autres ne sont pas nécessaires, par exemple pour la bureautique, ou pour la lecture d’une vidéo.


Les conducteurs entrée et sortie (source et drain) sont en relief et ont une épaisseur importante (Hsi) et une certaine largeur (Wsi). Le contact avec la grille (gate) se fait par les deux faces latérales et sur le dessus.
 

 

ActuInfo
L’information est une grandeur physique, manipuler des bits d’informations demande de l’énergie. Une équipe de physiciens vient de vérifier que le minimum d’énergie nécessaire pour effacer un bit est bien celui du principe de Landauer.
En 1961, Rolf Landauer a énoncé le principe selon lequel toute transformation logique irréversible, telle que la suppression d'un bit informatique, dégage de l'énergie, augmentant l'entropie. Un minimum chiffré par Landauer à kT.ln2, (k  la constante de Boltzmann et T la température du système), et utilisé ultérieurement pour expliquer le paradoxe du démon de Maxwell.
A 25°C, cette énergie vaut 0,0178 électron-volt (environ 10-21 joule).
Il aura fallu cinquante ans pour le vérifier. C’est ce que vient de faire un groupe du laboratoire de physique de l'Ecole Normale Supérieure de Lyon associé à un groupe des Universités d'Augsburg et Kaiserslautern, dont les résultats sont publiés dans la revue Nature, 8 mars 2012
Si la limite de Landauer ne concerne pas les ordinateurs actuels, ils pourraient l'être un jour, et plus spécifiquement les nanomachines manipulant de l'information. La nanotechnologie du futur devrait la prendre en compte.
Abstract
In 1961, Rolf Landauer argued that the erasure of information is a dissipative process. A minimal quantity of heat, proportional to the thermal energy and called the Landauer bound, is necessarily produced when a classical bit of information is deleted. A direct consequence of this logically irreversible transformation is that the entropy of the environment increases by a finite amount. Despite its fundamental importance for information theory and computer science, the erasure principle has not been verified experimentally so far, the main obstacle being the difficulty of doing single-particle experiments in the low-dissipation regime. Here we experimentally show the existence of the Landauer bound in a generic model of a one-bit memory. Using a system of a single colloidal particle trapped in a modulated double-well potential, we establish that the mean dissipated heat saturates at the Landauer bound in the limit of long erasure cycles. This result demonstrates the intimate link between information theory and thermodynamics. It further highlights the ultimate physical limit of irreversible computation.
Science et technologie : Une éolienne volante
ActuInfo

L'éolienne aéroportée de MakaniPower - Airborne Wind Turbine (AWT) - est une aile volante captive, équipée de turbines.Conçue par MakaniPower, une société basée à Alameda, Californie, elle vole à 300 m d'altitude, là où le vent est plus fort et plus constant.
Makani termine les essais d'un prototype de 30 kW (ci-contre), de 8 m d'envergure, et commencera bientôt le développement d'un modèle commercialisable de 600 kW, de 25 m d'envergure, à installer dans des fermes éoliennes de bord de mer.
L'objectif final est un modèle de 5 MW (65 m d'envergure) pour des fermes off-shore.
L'engin est retenu au sol par un cable qui le fait tournoyer en cercle à 300 m d'altitude, et qui sert aussi à la transmission de l'énergie électrique dans les deux sens: les hélices font tourner les turbines pendant le vol, et l'énergie est récupérée au sol. Au décollage elles sont mues à partir de l'énergie envoyée du sol. Elles peuvent aussi être alimentées pour entretenir le vol en cas de vent réduit.
L'avantage du système c'est que les hélices de petit diamètre agissent comme le ferait une hélice d'éolienne équivalente au diamètre de la trajectoire circulaire.

Science et technologie : Panneaux solaires 3D
ActuInfo

Une conception en 3D de l'architecture des panneaux solaires et de la collecte de l'énergie:en cube ou en tour, résultats de simulations et de maquettes développées au MIT.
Les résultats des essais montrent, à surface au sol égale, une collecte accrue de 2 à 20 fois selon l'heure de la journée.
Le coût supérieur à celui des panneaux plats, à énergie captée donnée, est compensé par une meilleure régularité et prédictabilité au cours de la journée ou de la saison. Cette amélioraton de la collecte se produit essentiellement en début et fin de journée et en hiver, lorsque le soleil est bas sur l'horizon. Crédit: MIT
Abstract
We formulate, solve computationally and study experimentally the problem of collecting solar energy in three dimensions. We demonstrate that absorbers and reflectors can be combined in the absence of sun tracking to build three-dimensional photovoltaic (3DPV) structures that can generate measured energy densities (energy per base area, kWh/m2) higher by a factor of 2–20 than stationary flat PV panels for the structures considered here, compared to an increase by a factor of 1.3–1.8 for a flat panel with dual-axis sun tracking.

Science et technologie : La Communication Haptique
ActuInfo

Nokia invente le tatouage qui vibre quand on vous appelle.

Haptique se réfère au sens du toucher: c'est une forme de communication non verbale. L’Office américain des brevets et des marques vient de délivrer à Nokia un brevet sur un tatouage faisant vibrer la peau lorsqu’il est soumis à un champ magnétique, celui du champ électromagnétique des téléphones mobile par exemple. Le rythme des vibrations pourrait être variable selon la personne qui appelle.
Déposé le 13 septembre 2011, il a été publié le 15 mars 2012 sous l’intitulé « Communication haptique ». Dans le résumé on lit que le dispositif proposé est à appliquer sur la peau. Il génére un stimulus perceptible par le porteur lorsqu’un champ magnétique variable est présent à proximité.
Prenant la forme d'un patch, il remplacerait la sonnerie par une vibration de la peau, prévenant d'un appel, d'un message, voire de la décharge de la batterie: la fréquence des stimuli pourrait dépendre de la personne qui passe l’appel ou indiquer qu’il s’agit d’un SMS.

ActuInfo

IdealPowerConverters conçoit une architecture d'onduleurs pour panneaux solaires de taille et poids réduits d'un facteur 12.  IPC, basée au Texas, utilise pour le moment deux IGBTs (Insulated Gate Bipolar Transistor) et deux diodes silicium conventionnels, dans une topologie appelée “current-modulation” pour réaliser des commutateurs bidirectionnels en place de l'électronique actuelle. A gauche le coffret IPC 30 kW, 42,6 kg - à droite l'armoire 30 kW actuelle de 546 kg.
Pour le futur, IPC étudie en remplacement avec le Rensselaer Polytechnic Institute et Virginia Tech, un IGBT bi-directionnel (BD-IGBT) capable d'une densité de puissance double, avec un coût et des pertes moitié. © IPC

Solution à comparer à celle présentée récemment par ArrayPower, Californie, qui monte un micro-onduleur sur chaque panneau solaire. La conversion DC-AC au niveau du panneau augmente la puissance disponible de 3 à 10%, mais aussi le coût lié à la microélectronique ajoutée. On est aussi limité à une tension de sortie monophase.

ActuInfo

Il n'a pas de moteur, thermique ou électrique. Robojelly est propulsé par réaction comme la méduse, chimiquement, grace à des matériaux à mémoire de forme, et des nanotubes de carbone couverts de platine catalyseur.  L'hydrogène est son carburant de base. Les concepteurs (The University of Texas, Dallas et Virginia Tech) de ce prototype de robot sous-marin se sont inspirés de la morphologie et du mode de déplacement de la méduse (en anglais jellyfish). Les méduses contractent leur ombrelle pour expulser l’eau qu’elles enferment. Par réaction, elles sont propulsées vers le haut, en étant déplacées latéralement par les courants marins.
L’énergie nécessaire au fonctionnement de l’automate (les mouvements de l'ombrelle et la propulsion), provient de la réaction chimique exothermique entre oxygène et hydrogène, catalysée par les nanoparticules de platine. L'eau formée lors de cette réaction sert à la propulsion. Les deux gaz sont contenus dans des réservoirs mais le robot pourrait probablement à terme exploiter l’oxygène dissous dans l'eau.
Des applications envisageables sont par exemple des muscles artificiels mus par une source d'énergie renouvelable
On peut voir évoluer cet engin dans une vidéo sur YouTube. Sa conception est présentée dans la revue de l'IoP "Smart Materials and Structures" d'avril 2012: © InstituteofPhysics, YouYube

La France se dote d’un Institut de Recherche entièrement dédié aux énergies marines.Le projet France Énergies Marines fait partie des lauréats de l’appel à projets « Instituts d’excellence sur les énergies décarbonées » lancé dans le cadre du programme d’investissements d’avenir.
58 industriels, établissements de recherche et collectivités en font partie. 70 chercheurs, techniciens et ingénieurs vont être recrutés.
France Énergies Marines facilitera la mise au point de prototypes pour l’exploitation en mer de l’énergie de la houle, du vent, des courants et du différentiel de température entre surface et profondeur (ETM). Il va notamment piloter cinq sites d’essais de prototypes: Fos-sur-mer et Groix pour les éoliennes flottantes, le Croisic pour les systèmes houlomoteurs, Paimpol-Bréhat pour les hydroliennes, Bordeaux pour les hydroliennes d’estuaires.
France Énergies Marines bénéficie de 34 millions d’euros d’aides de l’Etat sur dix ans. Son budget décennal est de 133 millions d’euros.

ActuInfo

Une équipe de chercheurs suédois et italiens présente des essais sur un mode de transmission radio, permettant d'exploiter sur une même fréquence plus de canaux, voire, en théorie une infinité.En tordant les ondes comme des pâtes fusilli, explique un membre italien de l'équipe. L’onde est enroulée autour de son axe plusieurs fois dans le sens des aiguilles d'une montre. Au final, ces ondes ressemblent à des pâtes torsadées, les fusilli, d'où ce nom donné par l'équipe italienne qui participe à ce projet.
Le moment angulaire des ondes électromagnétiques, OAM, (Orbital Angular Momentum); est le nouveau support des informations.
On peut écouter et voir une vidéo de l'expérience réalisée à Venise comme les premiers essais de Marconi, (en anglais), sur le site du New Journal of Physics, où les résultats ont été publiés.
Encoding many channels on the same frequency through radio vorticity: first experimental test
New Journal of Physics Volume 14 March 2012

Abstract
We have shown experimentally, in a real-world setting, that it is possible to use two beams of incoherent radio waves, transmitted on the same frequency but encoded in two different orbital angular momentum states, to simultaneously transmit two independent radio channels. This novel radio technique allows the implementation of, in principle, an infinite number of channels in a given, fixed bandwidth, even without using polarization, multiport or dense coding techniques. This paves the way for innovative techniques in radio science and entirely new paradigms in radio communication protocols that might offer a solution to the problem of radio-band congestion.

ActuInfo

Sophie - Elle n'est pas encore tout à fait au point, mais elle est déjà dans les ordinateurs de la société xBrainSoft, basée à Lille.

Grégory Renard, le créateur, prévoit déjà de lui apprendre à gérer tous les services généraux Nous entrons dans l’ère du web 3.0, IAS (Intelligent Agent Server), une ère de services internet Intelligents et proactifs.

Les créations d'xBrainSoft:
Digital Sophie: Agent Intelligent capable de répondre à tous les besoins en Entreprise
Angie: notre Ange Gardien dans la poche
DDZ Dealer de Zik: bouquet de services musicaux Intelligents,
Nestor Code Name: service de Maison Intelligente
Maire Digital: pour rendre les services municipaux accessibles 24/7/365 aux citoyens!
Smart Vendeur: En un clic, il deviendra l’assistant des clients en ligne

Vous êtes pour, vous êtes contre,
SURTOUT SI VOUS ETES CONTRE.....
allez le dire sur Facebook


L'Université du Maine, en collaboration avec le groupe ESEO propose en septembre 2012 une formation d’enseignement supérieur en électroacoustique (Master 1 et Master 2 Professionnel) pour former des ingénieurs capables de concevoir, prototyper, contrôler et effectuer le suivi de production d’éléments d’une chaîne électroacoustique.
 
Ce projet est soutenu par la fondation EMV de l'institut de France.