Instrumented Interconnecteds Intelligent

Building a Smarter Planet. A Smarter Planet Blog.


 

10712817_554494568017373_9140258241851445762_nMensen ervaren eten en koken op een hoog creatief niveau als een kunst, maar daarachter zit er een enorme hoeveelheid chemische en neurale wetenschap (zoals smaak) verborgen. Iets wat een computer nooit zal kunnen leren. Of toch wel?

Tijdens Food Valley Expo, op 23 oktober in Arnhem zullen chefkok Onno Kokmeijer en Marc Teerlink van IBM het concept ‘cognitief koken’ (cognitive cooking) presenteren. Watson, het cognitive computersysteem van IBM, heeft door het analyseren van alle smaken in de wereld, de voorkeuren voor ingrediënten en de chemie van ingrediënten in recepten verrassende nieuwe recepten ontwikkeld. Recepten zoals ‘Vietnamese Appel Kebab’, ‘Turkse Bruschetta’ en ‘Belgische Spek Pudding’. Het cognitive cookingsysteem van IBM kan redeneren over smaak zoals een mens dit doet met het gebruik van zijn gehemelte. Chef Watson is de perfecte keukenhulp, want de kok moet het doen. Wel stijgt hij in één opzicht duidelijk uit boven de mens: hij kan makkelijk zes, zeven, acht smaken aan elkaar koppelen, daar waar de mens vaak niet verder komt dan twee.

“Een speeltuin voor chefs, op het gebied van inspiratie en creatie”
Mr. Onno Kokmeijer
Executive Chef and Manager Ciel Bleu Restaurant
Hotel Okura Amsterdam

Cognitieve systemen leren en interacteren zoals mensen dat doen en kunnen zo een aanvulling leveren op wat noch de mens noch de computer alleen kan. IBM Watson en daarmee cognitive computing is een rolmodel voor de IT industrie en biedt een sterk onderscheidend vermogen voor IBM. Naast het leren van fouten maken, richt IBM zich op het verbreden van de scope van cognitieve computersystemen door te onderzoeken wat er gebeurt als een computer creatief kan zijn. Door deze inzichten te geven zullen menselijke experts worden ondersteund door IBM Watson en zo betere beslissingen nemen.

Bookmark and Share

By dr. Maris van Sprang, Ph.D

IBM regularly defines Grand Challenges: setting a clear goal that is challenging to the level of “just not impossible”, that can only be achieved by a multi year cooperation between hardware, software, services and research divisions. Of course, the idea is that the goal will be achieved but even if it eventually turns out to be impossible, it is likely that the results will be valuable anyway and that the “frontier” of the possible will have been pushed towards the impossible.

Just before the end of the millennium, the Grand Challenge was to build a Chess Computer and beat the world chess champion. A very clear goal but in the decades before Deep Blue this seemed completely impossible. Brute force chess programs relied on evaluating every possible move but quickly ran into hardware limits since increasing the depth by one more move of White and Black increases the calculation effort with a factor of 1000. The other approach relied on mimicking the way humans play but they were at most very funny, playing surprisingly ridiculous moves even when you were expecting ridiculous moves. Nevertheless, in 1997 Deep Blue has beaten the reigning world champion Gary Kasparov.

Kasparov vs DeepBlue

Kasparov vs DeepBlue

Around 2005 Watson became the next Grand Challenge to be launched during IBM’s centennial. The challenge was to build a Cognitive Computer which is a system that resembles the way humans think and at least requires the ability to understand natural language (Natural Language Processing – NLP) and a more robust way than traditional programming is capable of to handle incomplete, conflicting or partial incorrect input data. Machine Learning was the way to go.

These abilities are very wide and complex and despite being research topics for many years progress had not been impressive. But just measuring progress was a problem by itself: how do you measure “understanding natural language”? The system may be good in one area, let’s say “travelling” and bad in another such as “sports”. This results from the fact that the abilities have many “dimensions”. The measuring problem already occurs for 2 dimensions: which object is larger a 3×4 rectangle or a 2×6 rectangle? Without solving this measurement problem first, it would be impossible to track progress (did this change lead to an improvement?) and also would always leave room for discussions in the end (yeah, “travelling” was handled OK, but I am sure “sports” will be handled miserably).

The very clever choice made for Watson was to copy the competition aspect of Deep Blue: have Watson compete with humans. The American quiz Jeopardy! was an ideal battlefield: participants answer cryptic questions that cover many knowledge fields such as sport, geography, history, arts, etc. So, just as in chess, skills needed to be built up and mastered in numerous areas but in the end there is only a 1 dimensional measurement required for evaluation of all skills together. Both in chess and Jeopardy! you win by scoring more points than your opponents.

IBM-Watson-Jeopardy

IBM-Watson-Jeopardy

So, what needed to be done for Watson to win Jeopardy? Of course, a huge pile of information, the equivalent of 1 million books, needed to be stored and made accessible. Access to internet was forbidden, just as it was for humans. After the question, Watson searched this pile to find pieces of information that could be (parts of) answers. But, most importantly, only 1 answer could be given and, because wrong answers would result in point subtraction, Watson needed to be “sufficiently confident” about an answer before giving it. Watson needed to rank the candidate answers by confidence level, somehow. Just counting hits was not sufficient. To build up the confidence, Watson used its Natural Language Processing skills to find evidence for the candidate answers. In essence, this led to a basic level of understanding language, clearly very useful if you want to answer a question successfully. Lastly, to make a chance to beat the human champion, this whole process, starting with the search through a million books, would need to be finished within a few seconds.

Impossible?

In 2011 Watson has beaten the human champions.

After winning Jeopardy! sceptic people asked: “OK, so IBM has this game winning computer, so what?”. But it has turned out that Cognitive Computers have great potential in many fields. They need to have access to all relevant sources and be “trained” before they can be used. During this training, humans tell the computer which answers are correct and which are wrong while the computer makes adaptations in its software accordingly. Even during normal usage, the training continues when users give feedback on the quality of the answers. So Cognitive Computers continue learning and become better and better.

In 2014 Watson has grown to a whole family of commercial applications:

  • in Healthcare to help doctors identify treatment options
  • in Finance to help planners recommend better investments
  • in Retail to help retailers transform customer relationships
  • in Public Sector to help government help its citizens
  • Watson Engagement Advisor to handle customer interactions with natural language skills
  • Watson Discovery Advisor to assist Research by discovering patterns in all kinds of data
  • Watson Ecosystem as a cloud based environment offering Watson capabilities to developers to create “cognitive apps”
  • Watson Foundations as a Big Data and Analytics Platform.

 

What will be the future of Watson?

Any area where decisions need to be made and where decision quality improves with using relevant knowledge, where important questions have multiple correct answers but only one best answer, any of these areas is a candidate where Watson can have breakthrough impact. The data that is underlying this knowledge can be characterised in Big Data terms of Volume (how many Terabytes or even Petabytes large is the area), Velocity (how quickly does it grow in terms of Gigabytes per second), Variety (is the data structured or unstructured, does it consist of text, pictures, movies, sound, etc) and Veracity (to what extent can data be trusted). Any of these 4 dimensions can grow beyond what can be grasped by a mere human individual and puts Watson in a position to become of value.

A great example is Watson’s impact in medical oncology. Medical information doubles in volume every five years, and physicians practicing in the rapidly changing field of oncology are challenged to remain current with medical literature, research, guidelines and best practices. Keeping up with the medical literature can take an individual physician as many as 160 hours a week. But Watson can do this and ensure that decision making of physicians remains based on up to date information.

IBM'S WATSON helping to fight against leukemia at MD Anderson

IBM’S WATSON helping to fight against leukemia at MD Anderson

But imagine how much its value would grow if the data sources would expand: include besides oncology also other related medical fields, include next to English also other languages and also include other media such as X-ray and MRI pictures. Perhaps all of this, and more, can be accomplished with a Mega Watson: Watson scaled up a million times.

Impossible?

Perhaps not. Watson has already benefitted from hardware evolution since 2011. Its original size of 10 racks POWER 750 servers with 2880 cores has shrunk to only 3 “pizza boxes”. But a recent hardware revolution has the potential to dramatically improve Watson. TrueNorth is a neuro-synaptic computer chip by functioning like the human brain with the equivalent of 1 million neurons interconnected via 256 million synapses. With its 5.4 billion transistors it is one of the largest chips ever but still consumes less than 0.1 Watt. Running Watson cognitive software on cognitive TrueNorth hardware could result in Mega Watson in the coming years.

And have a look at the progress of the previous Grand Challenge. Today, computers “play” chess on astronomical levels that leave world champions completely without any hope to win. And you don’t need the proverbial mainframe for that. You can buy a strong chess program for a few 100 euro’s and run it on your laptop or smart phone. Of course, it is strictly forbidden to use them during chess tournaments but they are used during game preparation and to get a definitive judgement about game positions. If it indicates that White can get “decisive advantage” by playing the advised move then that will serve as ground truth. And if someone disagrees, it will be based on another, perhaps stronger, chess program. In their preparation, chess players, depend on their computer. All in all, todays chess players play stronger than decades ago, as indicated by the official ELO chess strength ratings.

The same will happen with Watson. Its advice better be followed because it is the best answer based on all available information. In just a few years, it will simply be a bad idea to make important decisions without support from cognitive systems. A decision maker will be held responsible and may be liable to prosecution after deviating unsuccessfully from the cognitive system recommended option. It will be forbidden not using them.

And after that? Imagine having the equivalent of a million TrueNorth chips containing sufficient neurons to compare with the human brain or a billion which exceeds the human brain. Via its connections with the Internet of Things, it will have access to billions of external signals and it will sense what is happening in the world. Might self-consciousness emerge? I posit this as a future Grand Challenge to “build a Sentient Computer that is self-conscious, senses the world and outwits the smartest humans”. But you won’t find this in Watson’s roadmap documentation ;-)

Impossible?

First thing to solve is to have a one dimensional metric. Only then we can answer “Where are we now?”, how much progress is needed and when it might be achieved. David Bowie would say “the moment it knows it knows we know”.

This post was written by:

Maris van Sprangdr. Maris van Sprang, Ph.D.
Senior IT Architect &
Benelux TEC Council Member

TOGAF 9 Certified

Maris can be reached at: m.vansprang@nl.ibm.com
 

 

 

Bookmark and Share
October, 9th 2014
15:26
 

by Warner Dijkhuizen, CSR Manager IBM Benelux

Managing the challenges of youth unemployment and the growing skills gap are critical to every nation’s economy. But no single sector of any nation’s economy can overcome these problems by acting alone. Governments, employers, educators, communities and families must work together toward the common goal of connecting all people – young learners, young adults, workers, the elderly and persons with disabilities –to the promise of opportunity. Innovative approaches to education can help transform local, regional and national economies by providing access to early learning, connecting learning more directly to employment, and ensuring that each person has chances to learn.

IBM has taken the lead in addressing economic transformation and community development through education at every level – from modeling how employers can help shape school curricula to make them academically rigorous and economically relevant (P-TECH), to early childhood science and mathematics education (KidSmart), to innovations in literacy training for children and adults (Reading Companion), to monetary grants and online “kits” to enable and encourage skills-based educational volunteering (IBM Activity Kits; IBM Impact Grants), and finally to web-based educational and cognitive computing resources to improve the training and effectiveness of teachers (Teachers TryScience; IBM Watson). IBM’s innovations in education are helping to improve access to community, opportunity and prosperity for people around the world.

10151249_528191443978482_7463424897722256551_nThe first weekend in October the whole chain from education to businesses in Netherlands opened the doors and invited interested families to learn more about the ways STEM, Science Technology, Engineering and Math, was essential to their core business.  In Science Center NEMO over 7000 people visited and actively participated in science experiments and games, among which an IBM Robotics booth, where children set their first coding steps with creative and structured thinking by programming a LEGO robot. IBM volunteers were present to assist the families and talk about their daily work at IBM.

1521619_528191327311827_8478631728686956068_nThrough these innovative initiatives with our public and private-sector partners – and through the dedication and commitment of IBM volunteers, mentors and community educators around the world – we are helping to extend opportunities for education and employment to previously under-served populations as we close the skills gap and strengthen economic competitiveness.

Bookmark and Share
October, 3rd 2014
10:48
 

Column door Frank van der Wal

Column door Frank van der Wal

In alle eerlijkheid ben ik de tel een beetje kwijt. De tel van deze twee-wekelijkse verhaaltjes, maar ik weet zeker dat het al meer dan 5 jaar geleden is toen ik daarmee begon. Had toen het idee gedeeld met mijn toenmalige manager, Jeroen Berckenkamp, die het ondersteunde. Ik schrijf er zo’n 20+ per jaar (52 weken in een jaar, om de twee weken levert 26 verhaaltjes op, maar in de twee vakantieperiodes sla ik er wat over)
Afhankelijk van het onderwerp krijg ik veel of weinig reacties, maar er zijn een paar lezers die steevast antwoord geven. Vaak erg grappig. Geeft me het gevoel het niet helemaal voor niets te doen.

Zo ook mijn wetenschappelijke steun en toeverlaat, Ton Engbersen in het Zurich Lab. Een zeer gewaardeerde collega die me even SameTime-de na mijn vorige stukje met de mededeling dat ik een wel “erg interessant door de bocht ging” met mijn bewering dat elektronische signalen trager gaan dan licht… Dat is natuurlijk niet zo, Frank!!!  Licht gaat ook geen 300.000 km/seconde door materiaal, alleen maar in vacuum en elektrische signalen ook. Dank Ton! En bij deze rechtgezet. Licht heeft als grote voordeel dat het minder energie kost daarom gebruiken we het zoveel mogelijk in de chips.

Het is een klein bruggetje van Ton Engbersen, die Scientific Director van het Astron-IBM Centre for Exascale is, naar een andere collega in het Lab in Zurich, Peter Luijten. Ik kwam een artikel tegen dat Peter bezig is met microServers. Dat zijn kleine maar krachtige servertjes die maar (heel) weinig stroom verbruiken.

De reden om microServers te ontwikkelen komt voort uit het project wat IBM met ASTRON heeft: het SKA project. SKA staat voor Square Kilometer Array en is een virtuele radiotelescoop die uiteindelijk meerdere vierkante kilometers beslaat. In het totaal gaat het over miljoenen antennes die zeer zwakke signaaltjes van de Oerknal moeten gaan opvangen. Deze signaaltjes moeten snel verwerkt worden en daarvoor heb je computers nodig. Veel computers. Probleem is dat veel computers ook veel stroom verbruiken en kostbaar zijn en dat wil je om verschillende redenen niet. Eentje is dat stroom op de plaatsten waar de SKA geplaats gaat worden (in woestijnen) schaars is, want het liefst wil je de antennes in the middle of nowhere neerzetten, ver van vervelende aardse signalen. Maar er is natuurlijk ook nog het ecologische aspect om geen energie onnodig te verbruiken.

Peter Luijten heeft een microServer ontwikkeld, samen met IBM partner FreeScale, die op zonnenenergie draait. Toch is het een volwaardige 64 bits server waar een serieus besturingssyseem zoals RedHat, SuSE of Fedora op draait.
Een ander geintje is dat de microServer gekoeld wordt door water dat met een temperatuur van 50 graden aangeboden wordt, en met ‘slechts’ 55 graden de server verlaat. Deze koeltechniek is ook door IBM Zurich ontwikkeld. Water van 55 graden is een prima temperatuurtje om te hergebruiken voor verwarming van kantoren bijvoorbeeld.

Veel van wat er in Zurich gemaakt wordt vindt z’n weg in commerciele doeleinden. Of dat voor deze microServers ook gaat gelden is nog koffiedik kijken, maar ik hou het in de gaten. Tevens het SKA project zelf waar de microServers in zeer grote getale in gebruikt gaan worden om de extreem grote hoeveelheden data die de antennes gaan opvangen te verwerken.

Ik ben benieuwd!

Bookmark and Share
September, 18th 2014
11:24
 

Posted by
in

Column door Frank van der Wal

Column door Frank van der Wal

Een YouTube video over IBM BlueMix bracht me laatst aan het lachen. De IBM presentator, een Amerikaan, grapte over het feit dat hij een presentatie over BigData moest geven in Texas. De organisator was een typische Texaan. Grote hoed, en een broekriem met gesp die wel “7 pounds” woog. De Texaan kondigde de IBM-er af met de woorden: “What ya’ folks call BigData, we, in Texas, just call it Data”

En dan hebben we 7. Mooi getal. Voor vele het geluksgetal. Een priemgetal. En, de meer hemelse benadering, een heilig getal. Maar het is ook de afstand in nanometers waar de  generatie chips aan moeten voldoen om de grote vraag van rekenkracht het hoofd te kunnen bieden.
7 nanometer (nm) uitgeschreven is 0,000000007 meter, ofwel 0,000007 millimeter. Kijk nog maar eens goed naar je liniaaltje en probeer dat millimetertje maar één miljoen keertjes op te delen (in gelijke stukjes, natuurlijk).
Als dat wat lastig is, pak dan een hoofdhaar, bijvoorkeur van jezelf, en probeer die dan 100.000 keer door te snijden. In de lengte natuurlijk. (Bij sommige van ons is het doorsnijden in de breedte een bijna net zo grote uitdaging…)
Klein dus. Ik denk dat ze in Texas daar niet over willen nadenken. Behalve IBM Research in Austin, natuurlijk.

De 7nm is de onwaarschijnlijke grens van de spoorbreedte die op een chips mogelijk is. En daar wil IBM naar toe. Om het een beetje in perspectief te zetten. Vandaag doen we 22nm in de POWER8 chip. De volgende generatie gaat naar 14nm en dan hebben we 10nm. Einde van dit decennium moeten we bij 7nm zijn. Maar dan houdt het ook wel een beetje op. Transistoren, de bouwstenen van de chips, zijn dan zo allemachtig klein geworden dat ze nog maar uit een handjevol atomen bestaan.

IBM heeft aangekondigd om een slordige $3 millard te investeren om die 7nm grens te behalen en, zoals het echte Amerikanen betaamt, te overschrijden. Dan moet er afgeweken worden van het basis materiaal wat men vandaag de dag gebruikt voor chips: zand. Nou ja, Silicium. Ook het ‘gereedschap’ dat nodig is, om die chips te maken moet drastisch veranderen.

Er wordt gedacht aan de exotische zaken als nanowires en nanochisels om de 7nm grens te besnuffelen.
Nanowires zijn ultradunne draadjes die de eigenschap hebben om gegevens niet alleen elektronisch maar ook optisch uit te wisselen in één en hetzelfde stukje silicium. Kijk, now we are talking. Licht gaat aanzienlijk sneller dan het verplaatsen van elektronische signaaltjes.
Nanochisels zijn beiteltjes. Maar dan heel klein. Het is een veelbelovende manier om elektrisch geleidende baantjes te etsen in het silicium.

Tools en technieken zijn nodig om zaken rond BigData aan te kunnen. Want dat BigData (en de daarbij behorende analyses) steeds belangrijker wordt begint nu door te dringen bij de bedrijven. Cognitieve computing en real-time analytics vergen grote rekenkracht. Chips kleiner maken brengt behalve rekenkracht ook nog eens energie winst met zich mee.

IT Infrastructuur wordt zo langzamerhand steeds meer weggemoffeld in de cloud en is minder en minder zichtbaar in de business problematiek die IBM (en andere) proberen aan te pakken. Maar geloof me, beste mensen, uiteindelijk staan er servertjes te zoomen. Servertjes die hun stinkende best doen om snel en efficient de antwoorden te geven. In servers zitten chips die het werk doen. IBM investeert in de volgende generaties chips. En ik ben daar enorm blij om.

Bookmark and Share

Subscribe to this blog Subscribe to this blog