Типы данных: category вместо object для строк с малым количеством уникальных. int8/int16 вместо int64. Чтение: usecols — только нужные столбцы, dtype — указать типы при чтении. Избегай iterrows() — используй vectorized операции. apply(axis=1) медленный — замени на np.where(), np.select(). Parquet вместо CSV — быстрее, компактнее. Chunked reading: pd.read_csv(chunksize=10000). eval/query: df.query("age > 25") — быстрее для больших DataFrame. Для >1GB — переходи на polars, dask или vaex. Профилируй: %timeit, memory_usage(deep=True).
Как оптимизировать производительность pandas?
Senior
313 просмотровAFK Offer AI
Как работает authentication в DRF?