高级数据工程主管 - AI社交媒体平台 | 远程职位

远程
全职
我们的AI驱动社交媒体内容平台正在寻找一位经验丰富的数据工程主管,以领导我们的数据基础设施计划。在这个远程职位中,您将设计并实施强大的数据管道,为我们的人工智能工具提供支持,使全球内容创作者受益。您将使用最先进的云技术(如AWS和Azure),同时与跨职能团队合作,将复杂的社交媒体数据转化为我们AI模型的有价值见解。 关键职责 - 设计、开发和维护企业级数据管道,用于从各种社交媒体平台和用户互动中收集、处理和存储数据。 - 架构并实施全面的数据仓库解决方案,为AI/ML工作负载和分析进行优化。 - 建立并执行严格的数据质量框架和验证流程,确保社交媒体数据的完整性、准确性和可靠性。 - 使用现代工具(如Apache Airflow、AWS Glue或Azure Data Factory)开发和自动化复杂的提取、转换、加载(ETL)流程。 - 持续监控、排除故障并优化数据管道,以提高性能指标、可靠性和可扩展性。 - 与数据科学家和机器学习工程师合作,了解复杂的数据需求,并为模型训练和部署提供必要的基础设施。 - 实施健全的数据治理实践,确保符合国际法规,包括GDPR、CCPA和其他相关隐私框架。 - 建立性能基准,开发全面的监控解决方案,主动识别瓶颈或异常。 - 与分析师和业务利益相关者合作,使用Tableau、Power BI或定制解决方案设计交互式仪表板。 - 开发和维护数据集市,提供关于社交媒体趋势和用户行为的实时分析和见解。 - 研究新兴数据技术,评估其在改进我们数据工程生态系统中的潜在应用。 必备技能和资格 - 计算机科学、数据工程、计算机工程或相关技术领域的学士或硕士学位。 - 5年以上数据工程专业经验,在ETL流程、数据管道架构和质量保证方面具有可证明的专业知识。 - 精通Python 3.8+和高级SQL(包括复杂查询优化)。 - 丰富的数据工程库和框架经验,如Pandas、PySpark、Dask或类似技术。 - 在基于云的数据平台和服务方面的丰富经验,特别是AWS(Redshift、S3、Glue、Lambda)和/或Azure(Synapse Analytics、Data Lake、Data Factory)。 - 实施和维护数据仓库解决方案和维度建模的经验。 - 容器化(Docker)和编排技术(Kubernetes)的工作知识。 - 对分布式计算原理和大数据处理框架的实际理解。 - 有效记录数据流、架构和流程的能力。 优先考虑 - NoSQL数据库(MongoDB、Cassandra、DynamoDB)经验。 - 熟悉流数据技术,如Kafka、Kinesis或Azure Event Hubs。 - 了解数据网格架构和领域驱动设计原则。 - 使用dbt(data build tool)或类似转换框架的经验。 - 处理社交媒体API和非结构化数据的背景。 - 相关云平台认证(AWS认证数据分析、Azure数据工程师)。 - MLOps经验和将数据管道整合到机器学习工作流中。 - 理解图形数据库及其在社交网络分析中的应用。 为什么加入我们的团队 加入我们创新的远程优先团队,共同构建AI驱动内容创作的未来。您将使用前沿技术,解决复杂的数据挑战,并对我们产品的成功产生直接影响。我们提供有竞争力的薪酬、灵活的工作安排、专业发展机会,以及与多个学科的优秀专业人士合作的机会。我们的协作文化鼓励创造力、持续学习和技术卓越,我们正在革新创作者与社交媒体互动的方式。