ETL pipeline: extract из sources (PostgreSQL, APIs), transform (cleaning, joining, aggregation), load в columnar storage (ClickHouse, Parquet в S3). Schema: star/snowflake schema, fact и dimension tables. Go: orchestrator запускает DAG задач, каждая задача — горутина с context. Incremental loads по watermark (last_updated). Data quality checks после каждого load.
Как спроектировать data warehouse на Go?
Senior
57 просмотровAFK Offer AI
Как реализовать Valuer interface?