خیلی از ما یا خودمون اعتقاد داریم و یا اطرافیانمون این طور فکر می کنن که غرب باساختن فیلم هایی که فرهنگ مارو بد نشون میده و فرهنگ خودشو رایج کنه... آیا به نظر شما این درسته؟ آیا غرب با ساختن فیلم هاش قصد تهاجم فرهنگی به ایران و دیگر کشور ها داره؟ قبل از این که نظرتون رو بگید، " تهاجم فرهنگی" رو...