Moet Ontwikkeling gereedskap skrifte Vir Apache Software Foundation
Apache Flink is ontwikkel om te werk met Apache Hadoop en kom met Java en Scala bindings. Flink is 'n kragtige platform wat jou toelaat om server clusters te bestuur en gebruik dit om te verwerk en ontleed groot hoeveelhede data in 'n...
Apache Flume is ontwikkel as 'n tussenganger stelsel wat logs versamel van die een aansoek en lewer dit aan 'n ander.Dit behoort te werk met die meeste Java programme en ontwikkelaars moet verseker, Flume beskerm teen die verlies van data en diens...
FOP staan vir " F ormatting O bjects P rocessor" en is 'n Java biblioteek wat XSL-FO data en uitset dit kan lees na 'n ander formaat.XSL-FO is 'n XML-formaat waarin drukker gereed inligting gestoor word, maar ook XSL style formatering...
Apache Geronimo neem 'n paar van die beste onderneming tools gevind in die open source Java gemeenskap en roosters hulle saam in 'n enkele bediener runtime, gereed om in die produksie omgewings ontplooi word.Geronimo kom met Eclipse integrasie, is...
Giraph is Apache se reaksie op die ontwikkelaar mark se behoefte aan sosiale grafiek data analise tools.Apache Giraph in staat is om van die neem van inter-gekoppelde sosiale data en hardloop verskeie data-analise en verwerking van bedrywighede op dit...
Apache Gora doel om 'n gemeenskaplike grond waarop ontwikkelaars gereedskap wat kan hanteer groot hoeveelhede inligting, ongeag van hul onderliggende stoor eenheid kan skep. Gora is geskryf in Java en is geskep as 'n alternatief vir ander Java...
Apache Hadoop is aanvanklik ontwikkel deur Yahoo en die projek is 'n kombinasie tussen die vorige Apache Hadoop Core en Apache Hadoop Gemeenskaplike repos. Die Hadoop projek het 'n baie bekendheid te danke opgedoen om sy goeie resultate in die...
Apache HBase is gemodelleer na interne groottabel databasis stelsel Google en is gebou bo-op die beroemde Apache Hadoop dataverwerking raamwerk en versprei rekenaar enjin. Omdat dit is gebou op Hadoop, 'n paar van sy interessante eienskappe word...
Apache Helix kan gebruik word vir die bestuur van groot rekenaar hulpbronne, bedryf op wolk infrastruktuur of in die berekening van trosse.Dit is gebou op die top van 'n ander Apache projek, Zookeeper , en bied 'n generiese koppelvlak vir die...
Apache korf is vir die eerste ontwikkel as 'n Apache Hadoop sub-projek vir die verskaffing van Hadoop administrateurs met 'n maklike, vaardig navraag taal vir hul data te gebruik.As gevolg van hierdie, Hive is ontwikkel uit die begin om te werk...