dijous, 18 de setembre del 2014

Impresores 3D

Les noves impressores 3D permeten obtenir, a partir de models digitals, objectes sòlids tridimensionals mitjançant el dipòsit de capes successives de material. Algunes tecnologies permeten imprimir utilitzant diversos materials i colors.
La impressió 3D és ideal per a la fabricació de prototips i objectes en petites quantitats, sempre que aquests no requereixin estar construïts amb un material de característiques especials diferents de les del material que utilitza la impressora en qüestió.
Impressora 3D BCN3DR, de RepRapBCN
Permet a l’usuari crear els seus propis dissenys per als objectes i imprimir-se’ls, i compartir amb d’altres usuaris aquests dissenys per a que ells també se’ls puguin imprimir.
Tot i que ja fa unes dècades que es disposava de la tecnologia necessària, no ha estat fins fa relativament poc que els preus de les impressores 3D no s’han reduït fins a uns nivells realment assequibles.

En aquest abaratiment han estat factors decisius la prescripció de la patent original i el projecte RepRap, que ha proporcionat maquinari i programari oberts per a la construcció d’impressores 3D.

Especialment interessant és també el projecte RecycleBot que proporciona maquinari i programari oberts per a la construcció de màquines que permeten reciclar envasos de plàstic per llençar i obtenir-ne plàstic per a ser utilitzat com a material de base per a la construcció d’objectes a les impressores 3D.

En aquest vídeo , realitzat per Catalunya Ràdio, en Xavier Martínez, responsable de projecte deRepRap BCN de la fundació CIM de l’UPC (Universitat Politècnica de Catalunya), ens parla sobre la impressió 3D

El bosó de Higgs


Els científics estan ara a l'abast de la recerca de l'anomenada partícula de Déu. Prop de 5.000 investigadors dividits en dos equips-ATLAS i CMS-van trobar una partícula subatòmica, i que podria ser el bosó, però com explicar-ho de forma simple?:
Fins el 4 de juliol de 2012, el bosó de Higgs era l'última peça fonamental del model estàndard de la física de partícules que es va descobrir experimentalment. Però  esn podem preguntar si no s'hagués descobert en els anys 70  les partícules conegudes com electrons i protons i quarks, s'hagués trobat el bosó de Higgs?
És aquesta l'explicació simple? Intentarem això de nou, el què  ens estan dient  els científics, es que estan a punt de descobrir la massa darrere de la matèria, de manera que tot ésser darrere de l'univers ve a l'existència es a dir, si estem entenent aquests murmuris excessivament intel·ligents, les aplicacions d'aquesta troballa té tot tipus de conseqüències, com trobar la matèria fosca, viatges en el temps, i altres possibilitats emocionants i terrorífiques. 

El nom de bosó de Higgs ve d'un mash-up de dos noms:
 Boson- una de les dues classes fonamentals de partícules subatòmiques - porta el nom de Satyendra Nath Bose, qui va precedir Higgs.... Bose, qui va treballar amb Albert Einstein per dur a terme les estadístiques de Bose-Einstein i la teoria de Bose-Einstein en la dècada de 1920, era un candidat natural per al Premi Nobel, que mai va arribar. Però el seu treball en la mecànica quàntica va ser tan important que una de les partícules subatòmiques va ser nomenat en el seu honor.
Què vol Déu té a veure amb això: el guanyador del Premi Nobel Leon Lederman, que volia promoure la idea de construir el superconductor de Super Collider a Texas,  va anomenat a aquesta particula en  el seu llibre de 1993, amb el nom fr "la partícula de Déu: si l'univers és la resposta, quina és la pregunta? "La frase va venir del seu desig de tenir un nom que defineix i que explicaria la humanitat  "la comprensió final de l'estructura de la matèria".
Per què la partícula de Déu? Per dues raons: Una, l'editor no ens  acceptava el nom  de la Goddamn Particle per què es creia que no era u títol apropiat i dos, hi ha una referència a un altre  llibre molt més antic.
Què passa amb la ciència?  Un gran avanç del segle 20 va descobrir que els àtoms estaven formats per tres partícules: protons, neutrons i electrons. Llavors, com els físics solen fer, van començar a trencar les partícules, que es van trencar en partícules encara més petites. 
Els científics van pensar que aquestes partícules petita eren quarks, units per gluons. Llavors el científic Peter Higgs va  preguntar-se: Segurament ha de ser una súper-partícula que crea un camp invisible (anomenat camp de Higgs) que afegeix massa a la matèria. Després de tot, per què s'agrupen els planetes al voltant del sol?
Com Higgs va teoritzar coses, l'univers està ple d'un camp d'energia a través del qual totes les partícules es mouen de la mateixa forma en què un avió ha d'empènyer  els vent per fer el seu camí a través d'un vent de cara. Quan major sigui  el potencial de la massa de la partícula, major serà la resistència que es trobarà. És teòricament possible que una partícula que no tingui massa com de fet, el fotó. Però aquesta és l'excepció ja que totes les altres partícules - protons, electrons, neutrons, neutrins - són finalment fatrets pels bosons de Higgs que inunden el camp. Aquesta petita col  isió converteix la partícula a partir d'un paquet d'energia a un paquet de la matèria. (El Higgs adquireix la seva pròpia massa a través de les seves pròpies interaccions amb el camp)
El Camp de Higgs és l'important: de MSNBC Cosmic Log,  va  explicar el camp de Higgs de la següent manera: Estàs en una habitació en un còctel; la gent es va movent d'un extrem a l'altre de l'habitació. Llavors, Justin Bieber entra ràpidament esdevé un interès dels assistents a la festa els quals, s'agrupen al voltant de Justin i amb prou feines es poden moure no obstant, Justin vol anar a buscar un refresc que acaben de portar i està a un altre extrem de l'habitació.
 Un cop que es mou, la multitud es mou amb ell de tal manera que tot el grup és més difícil d'aturar. Els assistents a la festa són com els bosons de Higgs, la gent normal són com partícules sense massa, i Bieber és com un bosó Z. 

Quin és el problema? A més d'entendre com funciona l'univers?
El descobriment de l'anomenada partícula bosó de Higgs serà un dels majors èxits de la ciència, que rivalitza amb el descobriment de l'estructura de l'ADN el 1953 i els allunatges de l'Apolo dels anys 1960 i 1970. Es pot explicar per què algunes partícules tenen massa, però per què altres, com els fotons de llum, no . ... Una partícula bosó de Higgs és fonamental per l'anomenat model estàndard de la física - la teoria generalment acceptada sobre com funciona l'univers per tant, es confirmaria  el model estàndard. 
Investigadors del CERN adverteixen que , malgrat els informes de premsa, el Higgs no està directament relacionat tant amb el Big Bang o les teories d'expansió. Fins on es sap , pot obrir una gran quantitat d'escenaris hipotètics. El Departament d'Energia dels Estats Units enumera que aquesta troballa, podria ajudar a l'esterilització d'aliments, la investigació del càncer i proves d'armes nuclears de fet, Space.com pensa que la partícula podria explicar la matèria fosca (encara que els investigadors del CERN no ho tenen clar)

connexió telepàtica a més de 7.000 km de distància

Telepatia i internet aconsegueixen comunicar dos cervells a distància
Un equip de neurocientífics ha aconseguit, per primera vegada, establir una comunicació directa i conscient entre dos cervells humans separats per 7.800 quilòmetres, usant la telepatia a través d'internet i tecnologies no invasives.
L'experiència, publicada en la revista científica "PLOS ONE", es va dur a terme el passat 28 de març quan es va transmetre la paraula "hola" des de Thiruvananthapuram (Índia), on es trobava l'emissor, fins al cervell del receptor, situat a Estrasburg (França).
Transmetre "hola" en codi binari
La paraula "hola" es va codificar amb codi binari. Es va transformar en 140 bits d'informació transmesos via internet. Un casc amb elèctrodes va registrar els canvis en l'electroencefalograma del cervell de l'emissor quan pensava la paraula en codi binari.
El receptor va rebre via internet aquest missatge mitjançant una interfície que va convertir els 140 caràcters que formaven la paraula en fosfens, espurnes de llum que apareixen en la visió perifèrica. D'aquesta manera, la persona receptora, amb els ulls tapats amb una bena, quan notava una d'aquestes descàrregues de llum interpretava un 1, i quan no la notava interpretava un 0, fins a descodificar tot el missatge.
L'operació es va reproduir deu dies després, també amb èxit, utilitzant la paraula 'ciao'
L'equip de científics estava coliderat pel professor de Psiquiatria i Psicobiologia Clínica de la Universitat de Barcelona Carles Grau.
Per als investigadors, aquest experiment suposa una important fita tecnològica que obre futures línies de recerca en la transmissió directa i no invasiva de les emocions i els sentiments, i en la connexió directa de sensors amb el cervell humà mitjançant l'estimulació cerebral. Preveuen que, en un futur no gaire llunyà, els ordinadors podran interactuar directament amb el cervell humà de manera fluida.
 
Font: TV3

Què és el BigData?

A causa del gran avenç  en les tecnologies d'informació, les organitzacions s'han hagut d'enfrontar a nous reptes que els permetin analitzar, descobrir i entendre més enllà del que les seves eines tradicionals reporten sobre la seva informació, al mateix temps i durant els últims anys, el gran creixement de les aplicacions disponibles a internet (geo-referenciamient, xarxes socials, etc) han estat part important en les decisions de negoci de les empreses. Aquest article pretén introduir el lector en el concepte de Big Data i descriure algunes característiques dels components principals que constitueixen una solució d'aquest tipus.
 
 
Introducció
El primer qüestionament que possiblement arribi a la seva ment en aquest moment és, què és Big Data i per què s'ha tornat tan important? doncs bé, en termes generals podríem referir com a la tendència en l'avanç de la tecnologia que ha obert les portes cap a un nou enfocament d'entesa i presa de decisions, la qual és utilitzada per a descriure enormes quantitats de dades (estructurats, no estructurats i semi estructurats) que prendria massa temps i seria molt costós carregar a un base de dades relacional per a la seva anàlisi. De manera que, el concepte de Big Data s'aplica per a tota aquella informació que no pot ser processada o analitzada utilitzant processos o eines tradicionals. No obstant això, Big Data no es refereix a alguna quantitat en específic, ja que és usualment utilitzat quan es parla en termes de petabytes i exabytes de dades. Llavors quant és massa informació de manera que sigui elegible per a ser processada i analitzada utilitzant el concepte de Big Data? Analitzem primerament en termes de bytes:
Gigabyte = 10 9 = 1,000,000,000 
Terabyte = 10 12 = 1,000,000,000,000 
Petabyte = 10 15 = 1,000,000,000,000,000 
exabytes = 10 18 = 1,000,000,000,000,000,000
A més del gran volum d'informació, aquesta existeix en una gran varietat de dades que poden ser representats de diverses maneres a tot el món, per exemple de dispositius mòbils, àudio, vídeo, sistemes GPS, incomptables sensors digitals en equips industrials, automòbils, mesuradors elèctrics, penells, anemòmetres, etc, els quals poden mesurar i comunicar el posicionament, moviment, vibració, temperatura, humitat i fins als canvis químics que pateix l'aire, de manera que les aplicacions que analitzen aquestes dades requereixen que la velocitat de resposta sigui  massa ràpida per aconseguir obtenir la informació correcta en el moment precís. Aquestes són les característiques principals d'una oportunitat per Big Data.
És important entendre que les bases de dades convencionals són una part important i rellevant per a una solució analítica. De fet, es torna molt més vital quan s'usa en conjunt amb la plataforma de Big Data. Pensem en les nostres mans esquerra i dreta, cadascuna ofereix fortaleses individuals per a cada tasca en específic. Per exemple, un jugador de beisbol, sap que una de les seves mans és millor per llançar la pilota i l'altra per atrapar; pot ser que cada mà intenti fer l'activitat de l'altra, mes no obstant això, el resultat no serà el més òptim.

D'on prové tota aquesta informació?

Els éssers humans estem creant i emmagatzemant informació constantment i cada vegada més en quantitats astronòmiques. Es podria dir que si tots els bits i bytes de dades de l'últim any foren guardats en CD, es generaria una gran torre des de la Terra fins a la Lluna i de tornada.
Aquesta contribució a l'acumulació massiva de dades la podem trobar en diverses indústries, les companyies mantenen grans quantitats de dades transaccionals, reunint informació sobre els seus clients, proveïdors, operacions, etc, de la mateixa manera succeeix amb el sector públic. En molts països s'administren enormes bases de dades que contenen dades de cens de població, registres mèdics, impostos, etc, i si a tot això li afegim transaccions financeres realitzades en línia o per dispositius mòbils, anàlisi de xarxes socials (a Twitter són prop de 12 Terabytes de tweets creats diàriament i Facebook emmagatzema al voltant de 100 Petabytes de fotos i vídeos), la ubicació geogràfica mitjançant coordenades GPS, en altres paraules, totes aquelles activitats que la majoria de nosaltres realitzem diverses vegades al dia amb els nostres "smartphones", estem parlant que es generen al voltant de 2.5 quintillons de bytes diàriament al món.
1 quintillón = 10 30 = 1,000,000,000,000,000,000,000,000,000,000
D'acord amb un estudi realitzat per Cisco, entre el 2011 i el 2016 la quantitat de trànsit de dades mòbils creixerà a una taxa anual de 78%, així com el nombre de dispositius mòbils connectats a Internet excedirà el nombre d'habitants en el planeta. Les nacions unides projecten que la població mundial arribarà als 7.5 bilions per al 2016 de manera que hi haurà prop de 18.9 bilions de dispositius connectats a la xarxa a escala mundial, això comportaria que el trànsit global de dades mòbils abast 10.8 Exabytes mensuals o 130 exabytes anuals. Aquest volum de trànsit previst per al 2016 equival a 33 bilions de DVDs anuals o 813 quadrilions de missatges de text.
Però no només som els éssers humans els que contribuïm a aquest creixement enorme d'informació, existeix també la comunicació anomenada màquina a màquina (M2M machine-to-machine) el valor en la creació de grans quantitats de dades també és molt important. Els sensors digitals instal·lats en contenidors per determinar la ruta generada durant un lliurament d'algun paquet i que aquesta informació sigui enviada a les companyies de transport, sensors en mesuradors elèctrics per determinar el consum d'energia a intervals regulars perquè sigui enviada aquesta informació a les companyies del sector energètic. S'estima que hi ha més de 30 milions de sensors interconnectats en diferents sectors com automoció, transport, industrial, serveis, comercial, etc. i s'espera que aquest nombre creixi en un 30% anualment.

 Quins tipus de dades he explorar?

Moltes organitzacions s'enfronten a la pregunta sobre quina informació és la que s'ha d'analitzar ?, però, el qüestionament hauria d'estar enfocat cap quin problema és el que s'està tractant de resoldre?
Si bé sabem que hi ha una àmplia varietat de tipus de dades a analitzar, una bona classificació ens ajudaria a entendre millor la seva representació, encara que és molt probable que aquestes categories puguin estendre amb l'avanç tecnològic.
Tipus de dades de Big Data
 Tipus de dades de Big Data [2]
 1. Web and Social Media : Inclou contingut web i informació que és obtinguda de les xarxes socials com Facebook, Twitter, LinkedIn, etc, blocs.
2. Machine-to-Machine (M2M) : M2M es refereix a les tecnologies que permeten connectar-se a altres dispositius. M2M utilitza dispositius com sensors o mesuradors que capturen algun esdeveniment en particular (velocitat, temperatura, pressió, variables meteorològiques, variables químiques com la salinitat, etc) els quals transmeten a través de xarxes amb fils, sense fils o híbrides a altres aplicacions que tradueixen aquests esdeveniments en informació significativa.
3. Big Transaction Data : Inclou registres de facturació, en telecomunicacions registres detallats de les trucades (CDR), etc Aquestes dades transaccionals estan disponibles en formats tant semiestructurats com no estructurats.
4. Biometrics : Informació biomètrica en la qual s'inclou empremtes digitals, escaneig de la retina, reconeixement facial, genètica, etc En l'àrea de seguretat i intel · ligència, les dades biomètriques han estat informació important per a les agències d'investigació.
5. Human Generated : Les persones generem diverses quantitats de dades com la informació que guarda un call center en establir una trucada telefònica, notes de veu, correus electrònics, documents electrònics, estudis mèdics, etc.

Components d'una plataforma Big Data

Les organitzacions han atacat aquesta problemàtica des de diferents angles. Totes aquestes muntanyes d'informació han generat un cost potencial en no descobrir el gran valor associat. Per descomptat, l'angle correcte que actualment té el lideratge en termes de popularitat per analitzar enormes quantitats d'informació és la plataforma de codi obert Hadoop.
Hadoop està inspirat en el projecte de Google File System (GFS) i en el paradigma de programació MapReduce , el qual consisteix a dividir en dues tasques ( mapper - reducer ) per manipular les dades distribuïdes a nodes d'un clúster aconseguint un alt paral·lelisme en el processament.  Hadoop està compost de tres peces: Hadoop Distributed File System (HDFS), Hadoop MapReduce i Hadoop Common.
Hadoop Distributed File System (HDFS)
Les dades en el clúster d'Hadoop són dividits en petites peces anomenades blocs i distribuïdes a través del clúster; d'aquesta manera, les funcions 
map i redueix poden ser executades en petits subconjunts i això proveeix de l'escalabilitat necessària per al processament de grans volums.
La següent figura exemplifica com els blocs de dades són escrits cap HDFS. Observi que cada bloc és emmagatzemat tres vegades i almenys un bloc s'emmagatzema en un diferent rack per aconseguir redundància.
Exemple d'HDFS
 Exemple d'HDFS
 
Hadoop MapReduce
MapReduce és el nucli de Hadoop. El terme MapReduce en realitat es refereix a dos processos separats que Hadoop s'executa. El primer procés map , el qual pren un conjunt de dades i el converteix en un altre conjunt, on els elements individuals són separats en tuples (parells de clau / valor). El procés redueix obté la sortida de map com a dades d'entrada i combina les tuples en un conjunt més petit de les mateixes. Una fase intermèdia és l'anomenada Shuffle la qual obté les tuples del procés map i determina que node processarà aquestes dades dirigint la sortida a una tasca redueix en específic.
La següent figura exemplifica un flux de dades en un procés senzill de MapReduce:

Big Data i el camp d'investigació

Els científics i investigadors han analitzat dades des de ja fa molt temps, el que ara representa el gran repte és l'escala en què aquests són generats.
Aquesta explosió de "grans dades" està transformant la manera en què es condueix una investigació adquirint habilitats en l'ús de Big Data per resoldre problemes complexos relacionats amb el descobriment científic, recerca ambiental i biomèdica, educació, salut, seguretat nacional, entre d'altres.
D'entre els projectes que es poden esmentar on s'ha dut a terme l'ús d'una solució de Big Data es troben:
·         El Language, Interaction and Computation Laboratory (CLIC) en conjunt amb la Universitat de Trento a Itàlia, són un grup d'investigadors l'interès és l'estudi de la comunicació verbal i no verbal tant amb mètodes computacionals com cognitius.
·         Lineberger Comprehensive Cancer Center - Bioinformatics Group utilitza Hadoop i HBase per analitzar dades produïdes pels investigadors de The Cancer Genome Atlas (TCGA) per suportar les investigacions relacionades amb el càncer.
·         El PSG College of Technology, l'Índia , analitza múltiples seqüències de proteïnes per determinar els enllaços evolutius i predir estructures moleculars. La naturalesa de l'algorisme i el paral · lelisme computacional de Hadoop millora la velocitat i exactitud d'aquestes seqüències.
·         La Universitat Distrital Francisco José de Caldas utilitza Hadoop per donar suport al seu projecte de recerca relacionat amb el sistema d'intel·ligència territorial de la ciutat de Bogotà.
·         La Universitat de Maryland és una de les sis universitats que col·laboren en la iniciativa acadèmica de còmput en el núvol d'IBM / Google.Les seves investigacions inclouen projectes a la lingüística computacional (machine translation), modelatge del llenguatge, bioinformàtica, anàlisi de correu electrònic i processament d'imatges.
Per a més referències en l'ús de Hadoop pot dirigir-se a: http://wiki.apache.org/hadoop/PoweredBy
L'Institut de Tecnologia de la Universitat d'Ontario (UOIT) juntament amb l'Hospital de Toronto utilitzen una plataforma de big data per a anàlisi en temps real d'IBM ( IBM InfoSphere Streams ), la qual permet monitoritzar nadons prematurs a les sales de neonatologia per determinar qualsevol canvi en la pressió arterial, temperatura, alteracions en els registres de l'electrocardiograma i electroencefalograma, etc, i així detectar fins a 24 hores abans aquelles condicions que puguin ser una amenaça a la vida dels nounats.
Els laboratoris Pacific Northwest National Labs (PNNL) s'utilitzen de la mateixa manera IBM InfoSphere Streams per analitzar esdeveniments de mesuradors de la seva xarxa elèctrica i en temps real verificar aquelles excepcions o falles en els components de la xarxa, aconseguint comunicar gairebé de manera immediata als consumidors sobre el problema per ajudar a administrar el seu consum d'energia elèctrica. 
L'esclerosi múltiple és una malaltia del sistema nerviós que afecta el cervell i la medul·la espinal. La comunitat de recerca biomèdica i la Universitat de l'Estat de Nova York (SUNY) estan aplicant anàlisi amb big data per contribuir a la progressió de la investigació, diagnòstic, tractament, i potser fins a la possible cura de l'esclerosi múltiple.
Amb la capacitat de generar tota aquesta informació valuosa de diferents sistemes, les empreses i els governs estan bregant amb el problema d'analitzar les dades per a dos propòsits importants: ser capaços de detectar i respondre als esdeveniments actuals d'una manera oportuna, i per poder utilitzar les prediccions de l'aprenentatge històric. Aquesta situació requereix de l'anàlisi tant de dades en moviment (dades actuals) com de dades en repòs (dades històriques), que són representats a diferents i enormes volums, varietats i velocitats.

Conclusions

La naturalesa de la informació avui és diferent a la informació en el passat. A causa de la abundància de sensors, micròfons, càmeres, escàners mèdics, imatges, etc en les nostres vides, les dades generades a partir d'aquests elements seran d'aquí a poc el segment més gran de tota la informació disponible.
L'ús de Big Data ha ajudat els investigadors a descobrir coses que els podrien haver pres anys a descobrir per si mateixos sense l'ús d'aquestes eines, a causa de la velocitat de l'anàlisi, és possible que l'analista de dades pugui canviar les seves idees basant-se en el resultat obtingut i retrabajar el procediment una vegada i una altra fins a trobar el veritable valor al que s'està tractant d'arribar .
Com es va poder notar en el present article, implementar una solució al voltant de Big Data implica de la integració de diversos components i projectes que en conjunt formen l'ecosistema necessari per analitzar grans quantitats de dades.
Sense una plataforma de Big Data es necessitaria desenvolupar addicionalment codi que permeti administrar cada un d'aquests components com ara: maneig d'esdeveniments, connectivitat, alta disponibilitat, seguretat, optimització i desenvolupament, depuració, monitorització, administració de les aplicacions, SQL i scripts personalitzats. 

IBM compta amb una plataforma de Big Data basada en dos productes principals: IBM InfoSphere BigInsights ™ i IBM InfoSphere Streams ™, a més de la seva recent adquisició Vivisimo, els quals estan dissenyats per resoldre aquest tipus de problemes. Aquestes eines estan construïdes per ser executades en sistemes distribuïts a gran escala dissenyats per tractar amb grans volums d'informació, analitzant tant dades estructurades com no estructurats.
Dins de la plataforma d'IBM ha més de 100 aplicacions d'exemple recollides de la feina que s'ha realitzat internament en l'empresa per casos d'ús i indústries específiques. Aquests aplicatius estan implementats dins de la solució de manera que les organitzacions puguin dedicar el seu temps a analitzar i no a implementar.
 
Font:IBM
 
 

Kisielice, a Polònia aspira a la sobirania energètica

Aquest estiu, la comunitat de Kisielice, va guanyar el primer premi  de  ManagEnergy 2014 de la Comissió Europea,  per a projectes energètics sostenibles locals i regionals. L'alcalde Tomasz Koprowiak va rebre el premi durant la Setmana de l'Energia Sostenible de la UE a Brussel·les. Kisielice, una petita comunitat a la província de Warmia-Mazury, és  pionera  de l'energia sostenible local  de manera que pot esdevenir com un exemple per a altres comunitats a Polònia i, per què no, a tot Europa.
Polònia i les energies renovables
El projecte de la ciutat anomenat Energy self-sufficient Commune of Kisielice, te com objectius la reducció d'emissions, l'abandonament de la dependència del carbó, la millora de la qualitat de l'aire i en última instància, arribar a ser independents en energia. Per assolir aquests objectius, la ciutat ha decidit implementar la biomassa i l'energia eòlica i per aprofitar el potencial de la seva agricultura local.
Una comunitat rural, Kisielice té una gran quantitat de terres agrícoles i no està densament poblada, el que li permet situar els aerogeneradors en les seves terres agrícoles més remotes. Les inversions estrangeres han permès instal·lar més de 50 turbines eòliques amb una capacitat total de 94,5 MW, amb els agricultors que reben una remuneració anual de les turbines a les seves terres.
Per complementar les turbines de vent, una planta de caldera de biomassa 6 MW s'ha instal·lat  basada en la palla de cereals que es compra als agricultors locals, brindant-los un ingrés addicional. també està connectada amb una xarxa de calefacció urbana, que arriba al 85% dels edificis de la comunitat. Aquest projete s'està implementant per etapes de manera que la xarxa va ser finançada inicialment per un préstec nacional, diners de la comunitat i una petita subvenció. Els ingressos tributaris del parc eòlic i del Fons Europeu de Desenvolupament Regional subvencions van permetre finançar l'expansió de la xarxa per poder arribar a tots els punts de generació  
La sensibilització dels residents és un altre component clau del projecte. Durant dos anys, el municipi ha organitzat reunions amb els ciutadans per convèncer dels beneficis econòmics i ambientals, inclosa l'energia tèrmica barata, menys contaminació de l'aire i l'ús dels excedents agrícoles.
El  projecte és el treball de molta gent durant molts anys ja que hi ha una estratègia de la  comunitat per a desenvolupar-se d'aquesta manera, per esdevenir autosuficient energèticament per tant, aquest Premi  de la Comissió Europea, confirma que s'ha pres el camí correcte.
Font: The Energy Collective

dimecres, 10 de setembre del 2014

anàlisi predictiu vs anàlisi històric de dades


Moltes empreses s'estan adonant que l'enorme quantitat de dades  disperses que vindran, poden ser aprofitades per fer front als seus reptes més grans, com ara la generació distribuïda i pels consumidors, poden ser atractives més enllà de la factura d'energia tradicional. 
Un nombre creixent d'empreses d'energia, estan iniciant projectes d'anàlisi de la gran quantitat de dades, que inclouen informes, quadres de comandament i visualitzacions de dades històriques però, com es pot treure un major profit de les dades mitjançant l'anàlisi d'històrics? Es posible en base a les dades d'ahir sigui posible obtenir el màxim valor de quelcom dada pugui ser gestionada per atendre a les noves necessitats operatives i de màrqueting? 
Predictive Analytics Have the Highest Value, So Why Are Utilities Analyzing the Past?
Segons la firma d'investigació tecnològica Gartner, l'anàlisi predictiu pot sostenir molt més valor per a les empreses que simplement analitzar els històrics. Respondre a preguntes com:
"Què passarà" i "Com farem que passi?" en lloc de "Què va passar?"  esdevenen com una gran diferència en el seu valor no obstant això, la major part dels projectes d'anàlisi que s'estan iniciant en els distribuïdors d'avui cauen en aquesta darrera  "categoria"
Una de les principals raons d'això, és la manca d'aportació d'experts i dades científiques de la "màquina d'aprenentatge" amb un profund coneixement dels mercats energètics. Una altra raó pot ser la manca de comprensió del que l'anàlisi predictiu és, què es diferencia de l'analítica descriptiva, i quin valor es pot crear per als distribuïdors. 
Llavors, què és l'anàlisi predictiu? L'anàlisi predictiu utilitza maquinari d'aprenentatge avançat amb algoritmes estadístics per aprendre de les dades històriques amb la finalitat de proporcionar pronòstics precisos i coneixements que permetin actuar amb caràcter predictiu i així, permeten als usuaris ser més proactius i influenciar positivament sobre la previsió de demà.
Per exemple, per a utilities  per l'explotació s'inclouen prediccions d'interrupció, les prediccions de fallada del sistema, la predicció exacta de les càrregues a nivell de comptadors en diferents intervals de temps i així permetre equilibrar l'oferta i la demanda, l'optimització dels programes de resposta a la demanda, i la detecció d'alertes anticipatives sobre possibles irregularitats. 
Per a la comercialització, els exemples inclouen la predicció sobre pèrdua de clients, predicció de les respostes dels clients als preus específics, les ofertes de l'eficiència energètica, de màrqueting, detectar per avançant irregularitats del consum d'electricitat d'una llar i informar la família com a part de la participació del client amb iniciatives. 
Tots aquests exemples d'aplicacions d'anàlisi predictiu pot tenir un enorme impacte en les companyies elèctriques  mitjançant campanyes de màrqueting i captació de clients, així com l'adquisició i retenció de clients (en mercats competitius). Aplicacions d'anàlisi predictiu també poden ajudar a equilibrar el consums de la xarxa i així, reduir els pics durant les hores punta.
Aquests beneficis són atractius per a les empreses elèctriques no obstant això, tendeixen a començar amb l'anàlisi descriptiu perquè l'anàlisi predictiu encara es considera car, complex i requereix molts recursos. Això està lluny de la veritat. Atès que els projectes d'anàlisi predictiu són en general dirigits per experts, els algorismes que es desenvolupen gairebé sempre són totalment automatitzats. D'altra banda, si es té en compte l'impacte financer dels projectes d'anàlisi predictiu, el temps per collir la totalitat del valor de l'anàlisi predictiu podria ser significativament més curt. 
En els casos en què els DSO decideixin iniciar les implementacions d'anàlisi predictiu, com poden assegurar-se que obtenen el màxim valor d'aquests projectes? Heus aquí quatre suggeriments:
Definir correctament el objectiu de negoci 
Començar amb una prova del concepte, basat en un mostreig de dades
Cal exgir rebre les mesures amb precisió
Optar per algoritmes predictius transparents
 
Font: Greentechgrid