lacyc3

Ubuntu 18.10 - Kozmikus Kalandok

Ubuntu Cosmic Cuttlefish
Ha a címre ránézve arra gondoltál, hogy időutazás áldozata lettél (vagy én) akkor megnyugtatlak, hogy szó sincs erről. A cikk írásának időpontjában jár le az Ubuntu 18.10 támogatása, ezért úgy gondoltam, hogy az utolsó pillanatban még kipróbálom, mire is képes az Ubuntu 18.10 Cosmic Cuttlefish, azaz Kozmikus Tintahal.

Egy Cassandra frissítés története, avagy a legacy sárkány tüzet okád

Frissítés gomb
A cél tiszta és világos: A Datastax-féle Cassanda (DSE) 4.8.9-ről fel kell frissíteni adatvesztés nélkül az összes fontosabb klaszterünket 5.1.11-re, leállás és az üzleti folyamatok bárminemű megakasztása nélkül.

Ubuntu és Bitlocker – Megférnek együtt?

titkosítás illusztráció
Mint azt évek óta jól tudjuk, az Ubuntu és a Windows egész jól megférnek egymás mellett. De mi a helyzet akkor, ha lemeztitkosítást használunk?

Vannak olyan körülmények, ahol elkerülhetetlen, sőt egyenesen kötelező valamilyen lemeztitkosítási megoldás használata.

Cassandra: Frissítés után nem indul el

Apache Cassandra logoProbléma: Nagyobb verziófrissítés után nem indul el a (DSE) Cassandra. A system.log-ban a következő hibaüzenet olvasható:

Cassandra: Streaming error occurred java.io.IOException: CF <> was dropped during streaming

Apache Cassandra logoProbléma: Van egy relatív sok (1 TB+) adatot tartalmazó Cassandra klasztered, legalább egy DataCenterrel. Hozzáadsz egy új DataCentert, amibe szinkronizálni szeretnéd a meglévő adatokat. Ennek megfelelően módosítod a keyspace-ek replication factorát (vagy ha jobban tetszik, a kulcsterek replikációs tényezőjét). Kiadod a nodetool rebuild -dc <forrás_dc> parancsot, de az adatok szinkronizálása néhány 100 GB után megszakad. Többedik rebuild kiadására sem javul jelentősen a helyzet, sokadik próbálkozásra sem sikerül megközelíteni a forrás DataCenterben lévő adatmennyiséget.

Apache Spark: java.lang.IllegalArgumentException: <gépnév>

Apache Spark logoProbléma: Végre akarsz hajtani egy Apache Spark lekérdezést, de az java.lang.IllegalArgumentException: <gépnév>-vel elhal.

Megoldás: Nem működik a Spark gépek között a névfeloldás. Spark esetén minden gépnek tudnia kell a másik nevéhez tartozó IP címet. Egy kisebb klaszter esetén megoldás lehet a hosts fájl használata. Ne feledkezzünk meg róla, hogy ez egy elosztott rendszer, tehát minden gép hosts fájljába írjuk be mindegyik gép nevét és IP címét.

Teljes exception és stack trace:
Legyen az aktuális gép neve spark-1

Nem adott felhasználóhoz és csoporthoz tartozó fájlok megkeresése

Probléma: Meg kellene keresni azokat a fájlokat, melyek nem egy adott felhasználóhoz és csoporthoz tartoznak.

Megoldás: find . ! -group <csoport> ! -user <felhasználó>
Például: find . ! -group cassandra ! -user cassandra