Beste Ontwikkeling gereedskap skrifte Vir Apache Software Foundation
Apache korf is vir die eerste ontwikkel as 'n Apache Hadoop sub-projek vir die verskaffing van Hadoop administrateurs met 'n maklike, vaardig navraag taal vir hul data te gebruik.As gevolg van hierdie, Hive is ontwikkel uit die begin om te werk...
Apache Accumulo is 'n mashup van verskeie tegnologieë van Google se bigtable om Apache se Hadoop , Thrift en Zookeeper .In vergelyking met bigtable stelsel Google se Accumulo beskik oor 'n paar verbeterings van sy eie.Dit sluit in tafel-sel...
Apache Vark het tot gevolg gehad het uit die Apache Hadoop projek en is een van sy modules wat dus in beheer van die verskaffing van 'n manier om die data wat dit verwerk en gestoor ontleed.Vark gebruik 'n persoonlike navraag taal, die...
Apache UIMA staan vir U nstructured I Voorlichting M Beheer 'n pplications.UIMA is 'n interessante projek van die Apache Foundation wat probeer om te analiseer en inligting blokke en patrone op te spoor binne groot ongeorganiseerd...
Apache Slider teikens Hadoop omgewings en is gebaseer op die databasis se volgende generasie MapReduce 2,0 standaard, ook bekend as gare.Slider kan gebruik word om garen voldoen programme wat interaksie met die onderliggende Hadoop databasis of...
Dienste ontwikkel via Apache CXF kan praat met 'n wye verskeidenheid van protokolle, sodat ontwikkelaars om 'n multi-funksionele programme wat kan werk oor 'n verskeidenheid van platforms en lae vervoer te bou. Apache CXF is baie...
Apache Commons JCS staan vir Java Caching System, en is 'n ouer Apache Jakarta projek en werk op die top van die Java Saamgestelde Cache.As gevolg van hierdie, kan die Commons JCS komponent data kas te skyf, in die geheue, lateraal in die cluster en...
Apache Commons Proxy kan gebruik word vir verskeie doeleindes en take, maar die basiese idee agter die biblioteek is om toelaat dat ontwikkelaars 'n tussenganger punt van toegang tussen die gebruiker en hulle kode op te sit.Hulle kan dan gebruik...
Apache też maak dit moontlik om komplekse data verwerking werkstromen en werkgeleenthede te skep binne Hadoop databasisse, die versorging van data wat gestoor word in 'n "pre-bereken" vorm, gereed om so gou as sy outputted. też neem data gestoor...
Apache BVal, of Apache Bean Validation, is 'n Java hulpmiddel wat funksies en metodes wat toelaat dat 'n ontwikkelaar om Java Bean data te valideer en kyk of hulle is in ooreenstemming met die JSR303 standaard bied. Hierdie standaard, ook bekend...