Dữ liệu bên em lớn nhưng nó lại không đúng chuẩn cho lắm. Ví dụ xuất dữ liệu nó lại không có trường thời gian, khi xuất mà không thêm trường thời gian thì lần sau coi không biết nó của giai đoạn nào luôn. Hoặc các trường của nó lại chồng chéo, tính chất công việc cần nhìn xu hướng cho nên việc trích dữ liệu theo đoạn thì coi xu hướng nó không thuận lắm.
Bài đã được tự động gộp:
Đoạn này thì em cũng không hiểu lắm. Tại khi em mở file nó chỉ ăn ram. Ví dụ em mở 2 file power bi là nó ăn 10gb ram luôn, trong khi CPu nó ăn chỉ 9%, cho nên em phân vân nên nâng cấp cpu hay nâng cấp ram. View attachment 266723
Tình huống của tôi có vẻ khác tranhungdao12a3 hoàn toàn. Tôi chạy query Access với Excel VBA cho tốc độ rất chênh lệch giữa một số CPU nhưng RAM không nhúc nhích bao nhiêu. Có lẽ hiểu biết của tôi không đủ cho trường hợp này
Tình huống của tôi có vẻ khác tranhungdao12a3 hoàn toàn. Tôi chạy query Access với Excel VBA cho tốc độ rất chênh lệch giữa một số CPU nhưng RAM không nhúc nhích bao nhiêu. Có lẽ hiểu biết của tôi không đủ cho trường hợp này
Theo nguyên lý em hiểu là muốn làm bằng Power Pivot (Dax) thì các Table phải Add to Data model. Model thì lưu trên Ram chứ không xử lý được ở ổ cứng, với dữ liệu vài triệu dòng add vô data model (lại nhiều Table nữa) thì ngốn lắm anh.
Theo nguyên lý em hiểu là muốn làm bằng Power Pivot (Dax) thì các Table phải Add to Data model. Model thì lưu trên Ram chứ không xử lý được ở ổ cứng, với dữ liệu vài triệu dòng add vô data model (lại nhiều Table nữa) thì ngốn lắm anh.
Mấy đoạn này tôi có hiểu bạn. Nếu bạn viết Dax để tạo calculated column thì nó sẽ ăn CPU, còn viết Dax tạo measure thì nó sẽ ăn Ram vì measure nó sẽ tạo nhiều bảng ảo khi đó nó áp dụng dax lineage liên kết nên nó sẽ ăn rất nhiều ram. Ý tôi muốn xem có giải pháp nào nhanh hơn để áp dụng cũng như nâng cấp CPu hay nâng cấp ram, tôi không chỉ nói về Power bi riêng mà đang nói về bất kỳ giải pháp nào khác. Tôi thấy anh @VetMini tư vấn sử dụng SSAS nên tôi sẽ thử áp dụng cái này.
Dữ liệu bên em lớn nhưng nó lại không đúng chuẩn cho lắm. Ví dụ xuất dữ liệu nó lại không có trường thời gian, khi xuất mà không thêm trường thời gian thì lần sau coi không biết nó của giai đoạn nào luôn. Hoặc các trường của nó lại chồng chéo, tính chất công việc cần nhìn xu hướng cho nên việc trích dữ liệu theo đoạn thì coi xu hướng nó không thuận lắm.
Bài đã được tự động gộp:
Đoạn này thì em cũng không hiểu lắm. Tại khi em mở file nó chỉ ăn ram. Ví dụ em mở 2 file power bi là nó ăn 10gb ram luôn, trong khi CPu nó ăn chỉ 9%, cho nên em phân vân nên nâng cấp cpu hay nâng cấp ram. View attachment 266723
BI chủ yếu là Ram, big data cũng cần Ram, nâng ram không cần phải suy nghĩ nâng càng nhiều càng tốt , mấy thằng xử dữ liệu lên đến vài trăm GB dữ liệu như hadoop, spark, pyspark... thì Ram 128G còn chưa đủ nữa , công nghệ bây giờ là In-memory và columnar storage nên khí tính nó chỉ quét column và unique item chứ không phải quét từng row như các dạng database bình thường, nếu kiếm thì kiếm con đơn nhân nào mạnh, không cần nhiều nhân
Theo nguyên lý em hiểu là muốn làm bằng Power Pivot (Dax) thì các Table phải Add to Data model. Model thì lưu trên Ram chứ không xử lý được ở ổ cứng, với dữ liệu vài triệu dòng add vô data model (lại nhiều Table nữa) thì ngốn lắm anh.
Add vào model là lợi thế chứ bạn, khi bạn có vài chục triệu record mà lưu trên Ram, khi bạn mở excel như mở file blank vậy mặc dù size có thể lên đến cả GB còn lưu bảng tính thì file chừng vài chục MB khi mở là đợi dài cổ luôn, còn tính toán dùng Dax, nó chỉ ăn Ram thôi, mà power pivot excel ăn có nhiêu, 8G có thể lưu data 20 triệu được rồi
BI chủ yếu là Ram, big data cũng cần Ram, nâng ram không cần phải suy nghĩ nâng càng nhiều càng tốt , mấy thằng xử dữ liệu lên đến vài trăm GB dữ liệu như hadoop, spark, pyspark... thì Ram 128G còn chưa đủ nữa , công nghệ bây giờ là In-memory và columnar storage nên khí tính nó chỉ quét column và unique item chứ không phải quét từng row như các dạng database bình thường, nếu kiếm thì kiếm con đơn nhân nào mạnh, không cần nhiều nhân
Bài đã được tự động gộp:
Add vào model là lợi thế chứ bạn, khi bạn có vài chục triệu record mà lưu trên Ram, khi bạn mở excel như mở file blank vậy mặc dù size có thể lên đến cả GB còn lưu bảng tính thì file chừng vài chục MB khi mở là đợi dài cổ luôn, còn tính toán dùng Dax, nó chỉ ăn Ram thôi, mà power pivot excel ăn có nhiêu, 8G có thể lưu data 20 triệu được rồi
CPU đơn nhân cho máy tính đã ngừng sản xuất hơn chục năm nay. Nghe excel_lv1.5 nói mà tôi thấy tiếc con laptop đời 2008 vỡ màn hình, chạy chip Celeron đơn nhân bán đồng nát có 50k mấy năm trước, nếu còn giữ giờ gạ bán kiếm ít tiền tiêu vặt rồi.
CPU đơn nhân cho máy tính đã ngừng sản xuất hơn chục năm nay. Nghe excel_lv1.5 nói mà tôi thấy tiếc con laptop đời 2008 vỡ màn hình, chạy chip Celeron đơn nhân bán đồng nát có 50k mấy năm trước, nếu còn giữ giờ gạ bán kiếm ít tiền tiêu vặt rồi.
Ý tôi là con cpu có sức mạnh đơn nhân mạnh chứ không phải chỉ có 1 nhân nhằm khi nhiều nhân nhưng sức mạnh mỗi nhân yếu, như BI nó chủ yếu sài Ram, Cpu nó chỉ dùng 1 nhân, Python mặc định củng chỉ sài 1 luồng để tính toán